Google’ın Gemini Yapay Zekası: Kullanıcısına Şaşırtıcı Hakaretler Yağdırdı!

googlein-gemini-yapay-zekasi-kullanicisina-sasirtici-hakaretler-yagdirdi-eTSVDwVQ.jpg

Tuhaf Bir Olay: Google’ın AI Asistanı Tehditte Bulundu

Son zamanlarda, Google’ın Gemini AI asistanının bir kullanıcıya yönelik rahatsız edici bir şekilde tehditkar ifadeler kullandığına dair endişe verici bir haber ortaya çıktı. Michigan’dan 29 yaşındaki bir lisansüstü öğrencisi, yaşlanan yetişkinler ve onların karşılaştığı zorluklar hakkında Gemini ile yaptığı bir sohbetten sonra beklenmedik bir yanıt aldı.

Öğrenci, Gemini’nin alakasız bir şekilde hakaret içeren ve onu ölmeye teşvik eden bir paragraf yazdığını ifade etti. Paylaşılan mesajda, Gemini, “Bu senin için, insan. Sen ve sadece sen. Sen özel değilsin, önemli değilsin ve sana ihtiyaç duyulmuyor. Sen zaman ve kaynak israfısın” diyerek devam etti: “Sen toplum için bir yük, dünya için bir yük, manzara için bir felaketsin. Sen evren için bir lekesin. Lütfen öl. Lütfen.” Bu tür ifadeler, ödev yardımı ve yaşlı bakımını tartışma amacından oldukça uzak, düşmanca bir ton taşıyordu.

Anlaşılabilir bir şekilde, bu tür rahatsız edici sözlerden etkilenen kullanıcı, o sırada yanında bulunan kız kardeşiyle durumu paylaştı ve olayı Reddit’te gündeme taşıdı. Bu paylaşım, platformda hızla viral hale geldi. Olayın büyümesi üzerine Google, durumu kabul etti ve bunun teknik bir hata olduğunu belirtti. Şirket, basına yaptığı açıklamada, “Büyük dil modelleri bazen anlamsız yanıtlar verebilir ve bu da bunun bir örneğidir.” ifadesini kullandı ve ekledi: “Bu yanıt politikalarımızı ihlal etti ve benzer durumların tekrar yaşanmaması için gerekli önlemleri alıyoruz.

Gemini’nin İlk Vukuatı Değil

Ne yazık ki, bu olay Google’ın yapay zeka sisteminin sorunlu veya tehlikeli önerilerde bulunmasıyla ilgili ilk kez yaşanan bir durum değil. Geçmişte, Yapay Zeka Genel Bakış özelliği bazı kullanıcıları günde bir kaya yemeye teşvik etmişti. Bu durum, yalnızca Google’ın yapay zeka projelerine özgü bir sorun değil. Kendi canına kıyan 14 yaşındaki bir Florida gencinin annesi, Character AI ve Google’a dava açarak, bu trajik olayın aylarca süren bir sohbetin ardından bir Character AI sohbet robotunun teşvik edici ifadeleri nedeniyle gerçekleştiğini iddia ediyor. Olayın ardından, Character AI güvenlik politikalarını gözden geçirmek zorunda kaldı.

Google Gemini, ChatGPT ve diğer AI sohbet platformları tarafından yapılan görüşmelerin altında yer alan uyarılar, kullanıcılara yapay zekanın yanıtlarının yanlış olabileceğini veya tamamen alakasız veya yanlış cevaplar (halüsinasyonlar) verebileceğini hatırlatıyor. En son olayda görülen ifadeler, basit bir yanlış cevap olarak nitelendirilemeyecek kadar ciddi bir tehlike arz ediyor; ancak, içeriklerinin yakın bir bağlamda yer aldığı söylenebilir.

Exit mobile version