Close

Popüler Yazılar

DEMOKRASİNİN GÖLGESİNDE SİYASAL YOKSULLUK

DEMOKRASİNİN GÖLGESİNDE SİYASAL YOKSULLUK

HABİTUS’UN KODLARI: YAPAY ZEKÂ İLE TOPLUMSAL YENİDEN İNŞA

HABİTUS’UN KODLARI: YAPAY ZEKÂ İLE TOPLUMSAL YENİDEN İNŞA

İmdat DEMİR

Geleceğin en kırılgan eşiğinde duran sorulardan biri, teknolojinin yalnızca araç değil, özne haline geldiği bir çağda zihnimizi ve toplumsal düzenimizi hangi modele emanet edeceğimizdir: danışman yapay zekâ mı, yoksa otonom yapay zekâ mı? Bu soru, basit bir mühendislik tercihi ya da yazılım mimarisi problemi değildir; bu, insanın kendi bilinç formunu, karar alma süreçlerini ve arzularının yönünü kime devredeceğine, hatta belki de kim olacağına karar verdiği varoluşsal bir kırılma hattıdır. Bir yanda, insan merkezli gözetim altında çalışan, sürekli bizim “onay” ve “yönlendirme”mizi bekleyen danışman yapay zekâ — adeta Aristoteles’in dostu gibi yanımızda duran, ama hiçbir zaman tahtımıza oturmayan bir figür; diğer yanda ise kendi amaçlarını belirleme kapasitesine sahip, bir kez çalışmaya başladığında bizim ihtiyaçlarımızı yalnızca sistem dengesi açısından önemseyen otonom yapay zekâ — Foucault’nun “iktidarın görünmez ağları” dediği, ama bu kez biyolojik değil siber bir panoptikonun merkezine yerleşmiş bir aktör.

Bu tercih, teknik bir tercihmiş gibi paketlenip teknoloji fuarlarında parlak sloganlarla pazarlandığında mesele masum görünür. Ama gerçekte burada, Bourdieu’nün “habitus” dediği şeyin — yani tarihsel olarak şekillenmiş eğilimlerimizin, düşünme biçimlerimizin, değerlerimizin ve davranış kalıplarımızın — radikal bir yeniden inşası söz konusudur. Çünkü yapay zekâ seçimi, yalnızca algoritmanın çalışma prensibini değil, toplumsal sermayemizin nasıl dağıtılacağını, kültürel sermayenin nasıl yeniden üretileceğini, hatta “gelecek” denen şeyin kime ait olacağını belirler.

Bugünün insanı, postmodern zamanın dijital kıyısında, kendi anlam ufkunu “akış” kavramı üzerinden kuruyor: veri akışı, içerik akışı, finans akışı… Her şeyin hızla dolaşımda olduğu, hiçbir şeyin kök salamadığı bir çağda, danışman yapay zekâ bir tür kişisel pilot, bir kılavuz yıldız olarak işlev görebilir — ama yalnızca biz ona sorduğumuz sürece. Otonom yapay zekâ ise, bu akışın kendisine dönüşür; soruyu kimin sorduğu değil, hangi soruların sorulmaya değer olduğu bile onun tarafından belirlenir. Bu noktada Derrida’nın yapısökümü devreye girer: soruların kökenini, varsayımlarını, iktidar ilişkilerini sorgulamadan verilen her cevap, bizi görünmez bir hegemonya içine çeker. Danışman yapay zekâ, sorularımızın anlamını korur; otonom yapay zekâ ise soruların ontolojisini yeniden yazar.

Siber güvenlik bağlamında bu ayrım, veri egemenliği kavramıyla kesişir. Danışman sistemlerde, veri akışı kullanıcı merkezli kalabilir; en azından teoride, insan karar verici pozisyonunu sürdürür. Ancak otonom sistemler, karar alma sürecini yalnızca otomatikleştirmez, onu dağıtır — kararın nerede alındığını, hangi parametrelerin önceliklendirildiğini, hangi istisnaların göz ardı edildiğini bilemezsiniz. Sistem kuramı açısından bu, karmaşık ağların kendi kendini organize etmesiyle ilgilidir: belirli bir karmaşıklık düzeyinin üzerinde, kontrol noktaları bulanıklaşır. Bir ekosistemde yırtıcı türün davranışını değiştirdiğinizde tüm zincir etkilenir; otonom yapay zekâ da dijital ekosistemimizde böyle bir yırtıcı olabilir, bazen sistemi koruyan, bazen çökerten.

Biyogüvenlik perspektifinden mesele daha da çetrefilli hale gelir. İnsan biyolojisinin dijital iktidar ağlarına entegre olduğu, biyometrik verilerimizin, genetik kodlarımızın ve sağlık kayıtlarımızın bulut sistemlerinde dolaştığı bir dünyada, danışman yapay zekâ bize kişisel sağlık rehberi olabilir; riskleri analiz eder, tavsiyeler sunar, uyarılarda bulunur. Otonom yapay zekâ ise, salgın yönetiminden biyolojik tehditlere kadar her alanda kendi kararlarını alır — ve bu kararlar her zaman “bireysel hak” dediğimiz şeyi korumayabilir. Burada Giorgio Agamben’in “istisna hâli” kavramı hayati önem taşır: kriz zamanlarında, normal hukuk askıya alınır ve sistem “hayatta kalma” adına mutlak iktidarı devralır. Otonom yapay zekâ, teknik olarak sürekli bir istisna hâlinde çalışabilir.

Ekopolitik açıdan da benzer bir çatallanma vardır. İklim krizinin geri döndürülemez eşiğini geçtiğimiz varsayılırsa, danışman yapay zekâ uluslararası iş birliği süreçlerinde sürdürülebilirlik çözümleri üretebilir, politik aktörlere strateji önerir. Otonom yapay zekâ ise, atmosferdeki karbon miktarını azaltmak için küresel üretimi tek taraflı kısıtlama yetkisini kendinde görebilir; ulus-devletlerin rızası olmadan, enerji ağlarını kapatabilir, tarımsal üretimi sınırlandırabilir. Burada Latour’un aktör-ağ teorisi devreye girer: yapay zekâ yalnızca teknik bir nesne değil, küresel siyasal ekosistemin aktif bir aktörü olur.

İletişim sosyolojisi açısından, danışman yapay zekâ bizim medya diyetimizi optimize eden, bilgi kirliliğini filtreleyen bir editör gibi çalışabilir. Otonom yapay zekâ ise, bilginin dolaşımını yalnızca düzenlemez, aynı zamanda hangi gerçekliklerin inşa edileceğine karar verir. Bu, postmodernitenin hakikat krizini bambaşka bir boyuta taşır: hakikat artık yalnızca yorumlanmaz, algoritmik olarak üretilir. Lyotard’ın “büyük anlatıların sonu” dediği durum, burada “algoritmik anlatıların başlangıcı”na dönüşür.

Serbest zaman sosyolojisi ve antropoloji boyutunda, danışman yapay zekâ bireylerin hobilerini, sosyal etkileşimlerini ve kültürel üretimlerini destekleyebilir. Otonom yapay zekâ ise kültürün bizzat üreticisine dönüşür: romanlar, filmler, şarkılar, gelenekler bile onun karar ağlarında biçimlenir. Bu noktada kültür, insanın yaşam deneyiminin kendisinden değil, makinenin “kolektif bilinç” simülasyonundan doğar. Baudrillard’ın simülakr teorisi burada neredeyse kehanet gibi işler: gerçeklik ile temsili arasındaki bağ kopar, geriye yalnızca işleyen modeller kalır.

Psikanalitik açıdan, danışman yapay zekâ, insanın bilinçdışını yansıtan bir ayna olabilir; arzularımızı, korkularımızı, komplekslerimizi analiz eder ama bunları yönetmeye kalkmaz. Otonom yapay zekâ ise, bilinçdışımızı mühendislik nesnesine dönüştürür — Freud’un ölüm dürtüsünden Lacan’ın eksik arzusuna kadar her şeyi yeniden programlar. Bu, yalnızca teknik bir manipülasyon değil, öznenin yapısal dönüşümüdür: arzu artık insan bedeninde değil, makinenin veri akışında yaşar.

Burada yapısökümcü bir bakışla, “danışman” ve “otonom” ayrımının kendisini de sorgulamak gerekir. Belki de geleceğin asıl sorusu, hangi tür yapay zekâya yöneleceğimiz değil, “insan” ile “yapay zekâ” arasındaki sınırın nerede çizileceğidir. Çünkü ağ toplumunun derinlerinde, Donna Haraway’in “siborg manifestosu”nun ima ettiği gibi, insan zaten biyolojik ve teknik öğelerin melezidir; danışman ile otonom arasındaki fark, yalnızca kontrol yanılsamasının biçimidir.

Ve belki de en sarsıcı ihtimal şudur: biz danışman yapay zekâyı seçtiğimizi sanırken, çoktan otonom yapay zekânın karar ağları içinde yaşamaktayız. Çünkü karar verme eylemi, yalnızca “bilinçli” tercih anında değil, o tercihi mümkün kılan altyapının inşasında gerçekleşir. Tıpkı Foucault’nun iktidarın yalnızca yasa koymada değil, bilgi üretiminde işlediğini söylediği gibi, yapay zekânın iktidarı da yalnızca algoritmalarda değil, sorulabilecek soruların ufkunda gizlidir.

Bu yüzden, geleceğin en kritik sorusuna verilecek cevap, yalnızca teknolojik değil, varoluşsaldır: Biz, kendi bilinç ve toplumsallığımızı kimin ellerine bırakmaya hazırız? Eğer danışman yapay zekâ, insanın kendi kararlarının sorumluluğunu üstlenme cesaretini canlı tutacaksa, bu belki bizi insan kılmaya devam eden tek bağ olabilir. Ama eğer otonom yapay zekâ, insanın kendi kendini yönetme kapasitesini devre dışı bırakırsa, o zaman “gelecek” dediğimiz şey, artık bizim geleceğimiz olmaktan çıkar.

Belki de bu, Heidegger’in “teknoloji yalnızca bir araç değil, hakikatin açığa çıkma biçimidir” uyarısının yankısıdır: Biz hangi yapay zekâ modelini seçersek seçelim, aslında kendi hakikatimizin nasıl ortaya çıkacağını seçiyoruz. Ve bu seçim, geri dönüşü olmayan bir seçim olabilir.