Yapay zekâ siyasete giriyor

Dosya Haberleri —

12 Nisan genel seçimleri öncesinde, Avanza Pais partisinden Peru cumhurbaşkanı adayı Jose Williams'ın destekçileri tarafından kontrol edilen bir insansı robot sergilendi/foto:AFP

12 Nisan genel seçimleri öncesinde, Avanza Pais partisinden Peru cumhurbaşkanı adayı Jose Williams'ın destekçileri tarafından kontrol edilen bir insansı robot sergilendi/foto:AFP

  • Yapay zekâ belgeleri hızla işler, biçimsel tutarsızlıkları ve tekrarları yakalar, görünür çelişkileri işaret eder. Bu alanda yardımcı bir araç olabilir. Ama yasa salt teknik bir metin değildir. Demokratik rejimde yasa, siyasi sürecin, tarihsel bağlamın, güç dengelerinin, uzlaşmaların ürünüdür. Metnin anlamı, o tarih ve hukuk kültürü içinde kurulur.
  • Bugün herhangi bir yurttaş, karmaşık bir yasa metnini anlamak için yapay zekâya danışabilir, sonuçları tartabilir, açıkları fark edebilir. Bu tür destekli bilişsel güçlenme, geleneksel siyasi yapıları kırılganlaştırabilir. Sosyal ağların daha önce yarattığı dönüşüme benzer bir etki görülebilir. Bu nedenle yapay zekâ ne başlı başına tehlike ne tek başına çözüm. Bir pharmakon, yani hem ilaç hem zehir. Sonucu belirleyen kullanımdır.

Fabrice Epelbain/Emmanuel Goffi*-Çeviri: Yeni Özgür Politika

Şeffaflık vaadi ile teknokrasi riski arasında, yapay zekânın kamusal ve siyasi hayata girişi artık bilimkurgu sayılmıyor. Japonya ve Arnavutluk’taki denemeler, sürmekte olan bir dönüşümü gösteriyor. Kimine göre yolsuzlukla mücadele aracı, kimine göre demokratik güvensizliğin belirtisi. Atlantico Fabrice Epelboin  ve Emmanuel Goffi’a Kamusal alanda yapay zekanın kullanımını soruyor.

Japonya’da yapay zekâ tarafından yönlendirilen bir liste ile Arnavutluk’ta yapay zekâ bakanı deneyi arasında, yapay zekânın demokratik hayata entegre edilmesine dönük somut girişimler görülüyor. Bu çabalar basit iletişim hamlesi mi, yoksa siyasi sistemlerde daha derin bir dönüşümün işareti midir?

Fabrice Epelboin: Basit bir iletişim hamlesinin epey öteside bir durum söz konusu. Elbette pazarlama boyutu var. Yine de Japonya’da da Arnavutluk’ta da görünen şey, bir reklamdan çok kamusal yaşamda olası bir dönüşümün erken işareti.

 Bu örneklerin ortak noktası, çok somut bir alana yönelmeleri: Yolsuzluk. Bu alanda yapay zekâ çok etkili olabilir. Karşılaştırma yapar, çapraz kontrol kurar, anormallikleri yakalar. Tekrarlayan şemaları, tutarsızlıkları ve şüpheli yakınlıkları, insanın yetişemeyeceği hız ve ölçekte saptar.

Arnavutluk örneğinde bu tali bir ayrıntı değil. Ülke Avrupa’yla bütünleşme çizgisini güçlendirmek istiyorsa, yolsuzluk meselesi yapısal önem taşıyor. Konu sadece ahlaki ya da sembolik değil, kurumsal ve jeopolitik. Japonya’da bağlam farklı. Buna rağmen yolsuzluğa düşük tolerans ve teknolojiyle daha doğrudan ilişki, bu tür kullanımı toplumsal olarak daha kabul edilebilir kılıyor.

Emmanuel Goffi: Bu tür hızlı değişimlere temkinli yaklaşmak gerekir, çünkü teknolojiyle ilişki toplumdan topluma değişir. Japonya, robotlar, otomasyon ve yapay zekâ gibi ileri teknolojilerle uzun zamandır daha tanıdık, daha az kaygılı bir bağ kuruyor. Avrupa’da ve genel olarak Batı demokrasilerinde ise ilişki daha çatışmalı ve kuşkulu, etik ve siyasi sorular daha baskın. Bu yüzden Japonya’daki bir girişim ile Arnavutluk’taki bir deneyi aynı biçimde okumak mümkün değil.

Arnavutluk’ta yapay zekâ bakanı figürü, siyasi bir performans, neredeyse sembolik bir jest. Bir teknoloji kişileştiriliyor. Oysa ortada ne bağımsız irade var, ne ahlaki kişilik, ne de özerk sorumluluk. Siyasi söz dağarcığıyla giydirilen şey, insan eliyle kurulan idari ve hükümet çerçevesine bağlı bir araç. Japonya’da da görünürlük stratejisi var. Bir partiyi var etmek, iz bırakmak, siyasi modernliği temsil etmek.

 Ama okumayı burada bırakmak yetersiz olur. Bu tür girişimler, marjinal ya da kusurlu da olsa yapay zekânın siyasette varlığı fikri tuhaf görünmemeye başlıyor. Kolektif zihinde yer ediniyor.

Bu durum daha yapısal bir olguyla da kesişiyor. Siyasete güvensizlik artıyor. Kamusal aktörler etkisiz, yolsuz ya da kopuk algılandığında, tarafsız ve rüşvete kapalı diye sunulan bir aracın kamuda rol üstlenmesi, bazı kesimler için çekici hale geliyor. Bu nedenle bu örnekler, iletişim boyutu ağır bassa bile, siyasal hayal gücünde ve zamanla sistemlerde daha derin bir dönüşümü haber verebilir.

Arnavutluk’taki deneyim beklenen sonuçları üretmedi. Bu durum, yapay zekânın sınırlarından çok kurumların sınırlarını mı gösteriyor?

Fabrice Epelboin: Temkinli olmak gerekir. Arnavutluk deneyi daha yeni başlıyor. Bu aşamada kesin sonuçlara varmak, sağlam analizden çok siyasi refleks olur. Sürekli denetim, anomali tespiti, büyük veri analizi, idari süreçlerin iyileştirilmesi gibi alanlarda yapay zekânın etkinliğinden kuşku duymak için az neden var. Bu alanlarda insan karşısında belirgin bir üstünlüğü bulunuyor.

Asıl ilginç soru kurumlar tarafında. Bu tür araçları entegre etmek, daha yüksek bir şeffaflığı kabul etmeyi, mevcut pratiklerin açığa çıkmasını göze almayı gerektiriyor. Her siyasi sistem, özellikle yolsuzluk ya da verimsizlik başlıklarında ortaya çıkabilecek sonuçlarla yüzleşmeye hazır değil. Bu yüzden açık ya da örtük direnç görülebilir. Yine de bu çekinceler zamanla aşınabilir. Bütçe baskısı, verimlilik arayışı ve ilk somut sonuçlar bu araçları dayatabilir. Uzun vadede sadece idari pratikler değil, devletin doğası da etkilenebilir.

Emmanuel Goffi: Kurumların yapay zekâyı entegre edememesi temel sorun mu, emin değilim. Asıl soru daha başta olabilir. Bu sistemleri kamu kararına entegre etmek gerçekten gerekli mi? Hangi temelde, hangi amaçla, hangi siyasi hedefle, hangi somut fayda kanıtıyla?

Bugün yapay zekâ entegrasyonu kamuda da özel sektörde de hızla dayatılıyor. Avrupa’da, Fransa’da planlar ve yol haritaları çoğalıyor. Yapay zekâyı her yere sokmak neredeyse bir ilke gibi sunuluyor. Bu itki, kamu hizmetini ve demokratik işleyişi iyileştirmeye dönük derin bir düşünceden çok, ekonomik ve rekabetçi çıkarlarla taşınıyor izlenimi veriyor.

Üstelik gerçek yatırım geri dönüşü şu aşamada belirsiz. Mevcut çalışmalar çoğu kez çelişkili. Vaat edilen verimlilik artışı kanıtlanmış değil. Bu da teknolojik mit riskini büyütüyor. Yapay zekânın kendiliğinden daha hızlı, daha güvenilir, daha rasyonel bir çözüm olduğu inancı, olgulardan daha hızlı yayılıyor. Bu durum sadece kurumlarda değil, şirketlerde de görülüyor. Araçlar alınıyor, ama örgütlenme, çalışma yöntemleri ve karar süreçleri yeniden düşünülmüyor.

Sonuçta sorun, entegrasyon becerisinden çok eleştirel düşünce eksikliği olabilir. Temel sorular yanıtlanmadan ilerleniyor. Bu araçlar ne işe yarayacak, hangi sınırlarla çalışacak, hangi güvencelerle, hangi somut fayda için kullanılacak. Bu tartışma ciddiyetle yapılmadıkça, siyasi bir vizyondan çok teknoloji arzı ve piyasa çıkarlarının belirlediği bir hatta sürüklenilebilir.

Grok gibi, büyük metin yığınlarını analiz edebilen araçlar, Avrupa mevzuatını taradıktan sonra önemli bir bölümün etkisiz ya da eskimiş olabileceğini öne sürüyor. Yapay zekâ yasaların niteliğini artırabilir mi, yoksa demokratik tartışmayı basit bir optimizasyon mantığına indirger mi?

Fabrice Epelboin: Etkisiz ya da eskimiş yasa fikrini göreli kılmak gerekir. Demokrasilerde hukuk katman katman oluşur. Eklenir, düzeltilir, uyarlanır. Zamanla karmaşık bir yığılma çıkar. Okunması zor olabilir, ama uzlaşmaların ve siyasi değişimlerin tarihini de taşır.

 Bu bağlamda yapay zekânın gücü, sentez kapasitesinde. Büyük metin hacimlerini analiz eder, tutarsızlıkları ve tekrarları saptar, artık gereksiz hale gelmiş hükümleri işaret eder, daha açık ve daha düzenli bir metin önerebilir. Avrupa mevzuatı gibi karmaşık külliyatlarda bu teknik katkı güçlü olur.

Emmanuel Goffi: Bu tür iddialarda örtük bir varsayım var. Bir yapay zekânın bütün bir hukuk külliyatını tarayıp önemli bir bölümün etkisiz ya da eskimiş olduğu sonucuna varabilmesi, hukukun ne olduğunu derinliğiyle kavrayabilmesini gerektirir. Bunun açık olmadığını düşünüyorum.

Evet, yapay zekâ belgeleri hızla işler, biçimsel tutarsızlıkları ve tekrarları yakalar, görünür çelişkileri işaret eder. Bu alanda yardımcı bir araç olabilir. Ama yasa salt teknik bir metin değildir. Demokratik rejimde yasa, siyasi sürecin, tarihsel bağlamın, güç dengelerinin, uzlaşmaların ürünüdür. Metnin anlamı, o tarih ve hukuk kültürü içinde kurulur.

Sonuçta yapay zekâ demokrasiyi daha etkili ve daha anlaşılır kılarak güçlendirecek mi, yoksa teknokratik yönetimi güçlendirip, demokratik aşınmayı hızlandıracak mı?

Fabrice Epelboin: Yapay zekâ kamusal eylemin anlaşılabilirliğini derinden değiştirecek. Vatandaşın erişemediği metinler ve mekanizmalar daha anlaşılır hale gelebiliyor. Bu, yönetenlerle yönetilenler arasındaki bilgi farkını azaltıyor.

Bugün herhangi bir yurttaş, karmaşık bir yasa metnini anlamak için yapay zekâya danışabilir, sonuçları tartabilir, açıkları fark edebilir. Bu tür destekli bilişsel güçlenme, geleneksel siyasi yapıları kırılganlaştırabilir. Sosyal ağların daha önce yarattığı dönüşüme benzer bir etki görülebilir. Bu nedenle yapay zekâ ne başlı başına tehlike ne tek başına çözüm. Bir pharmakon, yani hem ilaç hem zehir. Sonucu belirleyen kullanımdır.

Emmanuel Goffi: Yapay zekâ, bana göre daha çok aşınmayı hızlandıran bir unsur gibi işliyor. Demokrasiyi mekanik biçimde yıktığı için değil, zaten kırılganlaşmış bir döneme müdahil olduğu için.

Yapay zekâ daha etkili, daha temiz, daha rasyonel bir alternatif gibi sunulduğunda sadece bir araç tanıtılmıyor. Temsili demokrasinin meşruiyeti de biraz daha aşınıyor. Tekniğin, müzakerenin ve belirsizliğin yerine geçebileceği fikri besleniyor. Bir başka risk bilişsel bağımlılık. Bilgi arama, fikir kurma ve sorun çözme giderek yapay zekâya devredildikçe, eleştirel çaba zayıflayabilir. Demokrasi, yurttaşın kendi yargısını kullanmadığı bir zeminde uzun süre ayakta kalamaz.

Buna teknokratik kayma riski ekleniyor. Kamu kararı, teknik sistemlerle daha fazla çerçevelenebilir, yönlendirilebilir, gerekçelendirilebilir. Bu ani bir kopuş gibi değil, küçük adımlarla ilerleyebilir. Etkinlik ve optimizasyon gerekçeleriyle normalleşebilir. Birikimli etki büyüyebilir. Sonuçta yapay zekâ bu aşınmayı tek başına yaratmıyor. Var olan krizi görünür kılıyor, ona eşlik ediyor ve hızlandırıyor. Bu yüzden kolayca çözüm gibi pazarlanabiliyor.

* Fabrice Epelboin, Sciences Po’da öğretim görevlisi ve Yogosha’nın kurucu ortağıdır.
Emmanuel Goffi, etik alanında öğretim görevlisidir. ISEP Paris Elektronik Yüksekokulu’nda Etik ile yönetimsel eğitim alanlarından sorumludur.

Atlantico’dan kısaltılarak alındı.

Kaynak: https://atlantico.fr/article/decryptage/ia-va-t-elle-achever-la-democratie-ou-la-sauver-intelligence-artificielle-elections-vote-citoyens-Albanie-Japon-Europe-Etats-Unis-Grok-ChatGPT-Fabrice-Epelboin-Emmanuel-Goff

paylaş

   

Yeni Özgür Politika

© Copyright 2026 Yeni Özgür Politika | Tüm Hakları Saklıdır.