Yapay zeka İran'daki savaşı nasıl şekillendiriyor?

Dosya Haberleri —

ABD Savaş Departmanı/foto:AFP

ABD Savaş Departmanı/foto:AFP

  • Horowitz, ABD ordusunun lojistik ve ofis desteği, istihbarat toplama ve analizi ile savaş alanında karar desteği için büyük dil modelleri (LLM) tabanlı yapay zeka kullandığını söylüyor.
  • Google ve OpenAI çalışanları şu anda, her iki şirketin liderlerine, yapay zeka modellerinin iç kitlesel gözetim için kullanılmasını veya insan gözetimi olmadan insanları özerk olarak öldürmek için kullanılmasını izin vermemeleri çağrısında bulunan bir dilekçe dolaştırmaktadır.

*Nicola JONES-Çeviri: Yeni Özgür Politika

ABD, İsrail ve İran arasında tırmanan çatışma, savaşta yapay zeka kullanımına dikkatleri çekti. 28 Şubat'ta ABD-İsrail saldırısı başlamadan sadece bir gün önce, ABD hükümeti, yapay zeka kullanımına ilişkin etik endişeleri vurgulayan bir anlaşmazlık kapsamında ana yapay zeka tedarikçilerinden birini kenara çekti.

Ve bu hafta, akademisyenler ve hukuk uzmanları, savaşta yapay zekanın etik veya yasal kullanımına ilişkin uluslararası bir anlaşmaya varmak için uzun süredir devam eden çabaların bir parçası olarak, İsviçre'nin Cenevre kentinde bir araya gelerek, ölümcül otonom silah sistemleri ve orduda yapay zeka alımını tartışacaklar.

Yapay zekaya dayalı savaşın yaygınlaşması

Philadelphia'daki Pennsylvania Üniversitesi'nden siyaset bilimci Michael Horowitz, hızlı teknolojik gelişmelerin yavaş ilerleyen uluslararası tartışmaları geride bıraktığını söylüyor. İngiltere'deki Newcastle Üniversitesi'nde askeri hedef belirleme konusunda araştırmalar yapan siyasi coğrafyacı Craig Jones, "Şu anda yapay zeka savaşını düzenleyememek ya da yasal kullanım konusunda bir anlaşmaya varılana kadar kullanımını askıya alamamak, yapay zeka savaşının yaygınlaşmasının kaçınılmaz olduğunu gösteriyor gibi görünüyor" diyor.

Horowitz, ABD ordusunun lojistik ve ofis desteği, istihbarat toplama ve analizi ile savaş alanında karar desteği için büyük dil modelleri (LLM) tabanlı yapay zeka kullandığını söylüyor. Görüntü işleme ve taktik destek gibi uygulamalar için yapay zeka kullanan Maven Akıllı Sistem, örneğin hedefleri önererek ve önceliklendirerek saldırı yeteneklerini hızlandırıyor. Washington Post ve diğer haber kaynaklarının bildirdiğine göre, bu sistem önceki çatışmalarda ve İran'a yapılan saldırılarda kullanıldı. Horowitz, "Ayrıntılar kamuya açık değil" diyor…

foto:AFP

İnsan gözetimi olmadan ölümcül otonom silahlar

AI'nın hassas hedefleme özelliği, savaş sırasında sivil kayıpların azaltılmasına yardımcı olabilir. Ancak, Ukrayna ve Gazze'de devam eden çatışmalarda - AI'nın hedef belirleme ve insansız hava aracı navigasyonu gibi amaçlarla kullanıldığı çatışmalarda - çok sayıda sivil hayatını kaybetmiştir. Jones, "AI'nın sivil kayıpları veya hatalı hedefleme kararlarını azalttığına dair hiçbir kanıt yoktur ve tam tersi de doğru olabilir" diyor.

İnsan gözetimi olmadan ölümcül otonom silahları yönlendirmek için yapay zeka kullanma olasılığı, son derece tartışmalı bir konudur. Silahlı kuvvetler, örneğin yapay zeka destekli insansız hava araçlarını kullanarak düşman savaşçılarını otonom olarak tanımlama, bulma ve öldürme yeteneğini takdir edebilir. Ancak mevcut insani hukuk, bu tür silahların askeri ve sivil hedefleri ayırt edebilmesini gerektirir. Horowitz, insan gözetimi olmadan LLM destekli, tamamen otonom silahların şu anda güvenilir olmadığını ve uluslararası hukuka uymadığını söylüyor.

AI'nın gelecekteki potansiyel kullanımları, ABD Savunma Bakanlığı ile Kaliforniya, San Francisco merkezli bir AI şirketi olan Anthropic arasındaki anlaşmazlığın merkezinde yer alıyor. 2024 yılından bu yana, Maven sistemi, Savunma Bakanlığı ile yapılan 200 milyon dolarlık sözleşmenin bir parçası olarak Anthropic'in Claude LLM tarafından destekleniyor.

Yapay zeka kullanımına yasal arayış

Ocak ayında, bakanlık bir bildiri yayınlayarak, diğer hususların yanı sıra, hükümet için yapay zeka tedarik eden sözleşmelerde, yapay zekanın kısıtlama olmaksızın "her türlü yasal kullanım" için kullanılabileceğinin belirtilmesi gerektiğini açıkladı. Ancak Anthropic, Claude'un kitlesel iç gözetim veya tamamen otonom silahları yönlendirmek için kullanılamayacağını belirterek, mevcut teknolojinin güvenilir bir şekilde yapamayacağı şeyler olduğunu söyleyerek güvenlik önlemlerini kaldırmayı reddetti. 27 Şubat'ta ABD Başkanı Donald Trump, hükümete Anthropic'in teknolojisini kullanmayı durdurma talimatı verdi. Horowitz, "Tüm bu olay, gelecekteki olası kullanım durumları hakkında teorik bir tartışma olarak patlak verdi" diyor.

Anthropic ile ilişkisini kesen hükümet, San Francisco merkezli bir başka yapay zeka şirketi olan OpenAI ile bir anlaşma imzaladı. Şirket, sözleşmede teknolojisinin gözetim amaçlı veya tamamen otonom silahları yönlendirmek için kullanılmayacağının belirtildiğini açıkladı. 5 Mart itibarıyla, Anthropic CEO'su Dario Amodei'nin, bakanlıkla yeniden görüşmelere başladığı bildirildi.

Bu alandaki araştırmacılar, yapay zekanın olası olumsuz ve etik olmayan kullanımları konusunda derin endişelerini dile getirmişlerdir. Google ve OpenAI çalışanları şu anda, her iki şirketin liderlerine, yapay zeka modellerinin iç kitlesel gözetim için kullanılmasını veya insan gözetimi olmadan insanları özerk olarak öldürmek için kullanılmasını izin vermemeleri çağrısında bulunan bir dilekçe dolaştırmaktadır.

foto:AFP

Uluslararası düzeyde yasaklanması (!)

Canberra'daki Avustralya Ulusal Üniversitesi'nden siyaset bilimci Toni Erskine, savaşta yapay zekanın gelecekteki kullanımlarını öngören ve geçen yıl politika önerileri üreten bir projeye liderlik etti. LLM muhakemesi etrafındaki önyargı ve belirsizlik gibi bilinen sorunların yanı sıra, projenin raporu, insan muhakemesinin yapay zeka ile yer değiştirmesinin kazara çatışmaları tırmandırma riskini vurguluyor. Raporda, "İnsan müdahalesi olmayan tamamen otonom silah sistemleri etik olarak kabul edilemez ve uluslararası düzeyde yasaklanmalıdır" deniyor. Raporda, otonom olmayan sistemlerin de riskler taşıdığı ve düzenlemeye tabi tutulması gerektiği ekleniyor.

Savaşta yapay zekanın yasal ve etik kullanımına ilişkin uluslararası bir anlaşma sağlamak için üst düzeyde çeşitli çabalar sürmektedir. Ancak Jones, bu girişimlerin ana aktörlerin katılım eksikliği nedeniyle sekteye uğradığını söylüyor. "ABD, İsrail ve Çin gibi aktif yapay zeka savaş programları olan ülkeler genellikle daha fazla düzenlemeye karşı çıkıyor" diyor.

Otonom silahlarda yapay zeka kullanımına karşı özel bir kural, Bazı Konvansiyonel Silahlar Sözleşmesi (CCW) aracılığıyla ortaya çıkabilir. Bu hafta Cenevre'de CCW'nin ölümcül otonom silah sistemleri uzman grubu toplantısında, uzmanlar Stockholm Uluslararası Barış Araştırma Enstitüsü'nün askeri yapay zekanın sorumlu tedariki hakkındaki raporunu tartıştılar. Geçen ay yayınlanan bu rapor, ABD Savunma Bakanlığı'nın şu anda yapay zeka teknolojisi şirketleriyle bulunduğu sözleşme aşamasının, "sorumlu davranış ilkeleri" konusunda netlik sağlanması için çok önemli bir zaman olduğunu önermektedir.

Kaliforniya'daki Stanford Üniversitesi Uluslararası Güvenlik ve İşbirliği Merkezi'nde siber güvenlik uzmanı olan Herbert Lin, tüm bu çabaların, yapay zeka destekli tam otonom ölümcül sistemleri tanımlamanın veya birçok bilgisayar sisteminde artık ayrılmaz bir parçası haline gelen yapay zekanın kullanımını sınırlandırmanın zorlukları nedeniyle engellendiğini söylüyor. Lin, dünyanın savaşta yapay zekanın yasal kullanımı konusunda resmi bir anlaşmaya "hiç de yakın" olmadığını düşünüyor ve "Bu çok, çok, çok, çok karmaşık bir konu" diyor.

* Nicola Jones, Springer Nature SDG Programı Yayıncılık Direktörü olarak, Springer Nature bünyesindeki BM Sürdürülebilir Kalkınma Hedefleri ile ilgili yayıncılık faaliyetlerini koordine etmekten sorumlu.

Kaynak: https://www.nature.com

 

paylaş

   

Yeni Özgür Politika

© Copyright 2026 Yeni Özgür Politika | Tüm Hakları Saklıdır.