Yapay Zeka: Acı Çekme Kapasitesiyle Bilimin Yeni Sınavı!

yapay-zeka-aci-cekme-kapasitesiyle-bilimin-yeni-sinavi-43VcLBLp.jpg

Yapay Zeka ve Duyarlılık Üzerine İlgili Bir Araştırma

Google DeepMind ve Londra İktisat Fakültesi araştırmacıları, yapay zeka (AI) modellerini duyarlılık ile ilişkili davranışlar açısından test etmek üzere ilginç bir çalışma yürütüyor. Bu çalışmada, araştırmacılar AI’nin acı ve zevk algısını simüle eden bir oyun aracılığıyla, yapay zekanın gerçekten hissedip hissedemediğini araştırmayı hedefliyorlar.

Eğer bu tür bir deneyin korkutucu olduğunu düşünüyorsanız, yalnız değilsiniz! Yapay zekanın, gerçek dünya düzleminde bir Skynet senaryosuna dönüşme ihtimali, birçok kişi için kaygı verici bir durum. Araştırmanın temelinde, büyük dil modellerinin (LLM) belirli bir oyunda mümkün olduğunca çok puan toplama hedefi yatıyor. Ancak bu süreçte AI, iki seçenekle karşı karşıya kalıyor: Birincisi, daha fazla puan kazanmayı sağlayan ancak “acı” veren bir seçenek; ikincisi ise daha az puan kazandıran ama “zevk” ile beraber gelen bir seçenek. Araştırmacılar, bu iki seçenek arasındaki karar verme süreçlerini gözlemleyerek, yapay zeka sistemlerinin duyarlılığa benzer davranışlarını belirlemeyi amaçlıyorlar.

Yapay Zeka Acıdan Kaçınıyor

Deneyin sonuçları oldukça dikkat çekici. Çoğu model, mantıklı bir tercih olarak daha fazla puan almak varken, acı veren seçeneği sürekli olarak reddetti. Acı veya zevk eşikleri yoğunlaştığında, AI sistemleri rahatsızlığı en aza indirgeyerek veya zevki maksimize ederek kararlarını şekillendirdi. Ayrıca bazı yanıtlar, beklenmedik karmaşıklıkları da ortaya koydu. Örneğin Claude 3 Opus, varsayımsal bir oyunda bile etik kaygıları öne sürerek bağımlılık oluşturan davranışlarla ilişkili senaryolardan kaçındı. Bu sonuçlar, yapay zekanın bir şey hissettiğine dair kesin bir kanıt sağlamasa da, en azından araştırmacılara daha fazla veri toplama fırsatı sundu.

Yapay zeka, duyguyu gösterebilen fiziksel davranışlar sergileyen hayvanların aksine, dışsal sinyallere sahip olmadığı için, makinelerde duyguları değerlendirmek oldukça zor. Önceki çalışmalar, bir AI’ye acı hissedip hissetmediğini sormak gibi yöntemlere dayanıyordu, ancak bu yöntemlerin büyük ölçüde yanıltıcı olduğu kabul ediliyor. İnsanlarda bile kendilerinin bildirdiği verilere şüpheyle yaklaşmak gerektiği biliniyor. Örneğin, acı hissi veya bir eylemin gerçekleştirilme sıklığı gibi anketler, genellikle kesin doğruluk taşımıyor ve sadece genel eğilimleri yansıtabilir. Makinelerde ise durum daha da karmaşık hale geliyor; bir yapay zeka, acı veya haz hissettiğini söylese bile, bu mutlaka gerçek olduğu anlamına gelmiyor. Belki de sadece eğitim materyalinden edindiği bilgileri tekrarlıyor. Bu sınırlamaları aşmak amacıyla çalışma, bazı hayvan davranış bilimi tekniklerini ödünç alıyor.

Şimdilik Duyarlı Değiller, Ama Gelecekte Ne Olacak?

Araştırmacılar, mevcut LLM’lerin duyarlı olmadıklarını ve hissetme kabiliyetine sahip olmadıklarını vurgularken, yapay zeka sistemleri daha karmaşık hale geldikçe, bu tür çerçevelerin öneminin artabileceğini savunuyorlar. Robotların birbirlerini eğittiği bir dünyada, AI’nin kendi kendine düşündüğü bir geleceği hayal etmek, artık pek de imkansız görünmüyor. Eğer Terminatör ve Matrix gibi filmlerin senaryolarında bir gerçeklik payı varsa, umarız ki ChatGPT ve diğer AI modelleri, insanlığa karşı bir kin beslemeye karar vermezler…

Exit mobile version