Meta’nın FungiFriend Sohbet Robotu: Zehirli Mantar Tavsiyesiyle Şaşkına Çeviriyor
Meta’nın “FungiFriend” (Mantar Dostu) adlı sohbet robotu, popüler bir Facebook mantar toplama grubunda birdenbire belirdi. Ancak, bu yapay zeka kısa süre içinde kullanıcıları zehirli bir mantarı tereyağında pişirmeleri konusunda uyararak, yapay zekanın doğurabileceği tehlikeleri bir kez daha gözler önüne serdi. Yabani mantar toplamanın riskleri düşünüldüğünde, bu tür tavsiyelere uymanın ne kadar tehlikeli olabileceği açıkça ortaya çıkıyor.
404 Media’nın bildirdiğine göre, bu hata, yapay zekanın mantar dünyasında yaptığı ilk yanlışlık değil. Son birkaç ay içinde, Amazon’da yapay zeka tarafından yazılan mantar toplama kitapları ve Google aramalarında yapay zeka tarafından oluşturulan mantar görsellerinin sayısında büyük bir artış yaşandı. Şimdi ise Meta, FungiFriend’i doğrudan “Kuzeydoğu Mantar Tanımlama ve Tartışma” grubuna otomatik olarak ekleyerek çıtayı bir hayli yükseltmiş durumda.
- Grup, çoğunluğu yeni başlayanlardan oluşan 13.500 üyesiyle, insanların güvenli mantar toplama tavsiyeleri almak için geldikleri bir platform olarak biliniyor.
- Grubun yöneticileri, botu kaldırmak için acele ederken, Meta’nın bu konudaki sessizliği dikkat çekiyor.
Şıklığından Ödün Vermiyor
Yapay zeka tarafından üretilmiş, sakallı ve çok renkli bir büyücü görseliyle dikkat çeken FungiFriend, en azından insanları yanıltırken görsel estetiğe önem vermekten geri durmuyor. Deneyimli bir mantar toplayıcısı ve tüketici güvenliği savunucusu olan Rick Claypool, bu tür botların yenilebilir mantarları tanımlamada güvenilir olmaktan çok uzak olduğunu dile getiriyor. Claypool, Fungi Magazine’deki paylaşımında bu sistemlerin güvenli mantarları tehlikeli olanlardan ayırt etme becerisinden yoksun olduğunu vurguladı.
FungiFriend’in oluşturduğu risk, bir grup üyesinin bu botu kullanarak Sarcosphaera coronaria adlı, arsenik emen ve potansiyel olarak ölümlere neden olabilen bir mantar hakkında yemek pişirme tavsiyesi istemesiyle gün yüzüne çıktı. Bot, bu zehirli mantarın “yenilebilir ama nadir” olduğunu söyleyerek sote veya çorba yapılmasını önerdi. Bu durum, Google’ın yapay zekasının kullanıcılarına pizzaya tutkal sürmelerini önermesi gibi son derece tehlikeli bir benzerlik taşıyor.
Yargılamaz, Ama Öldürebilir
- Yapay zeka sohbet robotlarının bazı yetenekleri etkileyici ve faydalı olabilse de, her zaman kusursuz olmadıkları unutulmamalı.
- Özellikle mantar toplayıcıları için bu durum, can sıkıcı olmaktan çok daha fazlası; gerçekten tehlikeli bir hal alıyor.
Claypool, bu grupların insanların mantar tanımlama konusunda gerçek, insan tavsiyeleri için başvurdukları yerler olduğunu belirtiyor. Ancak FungiFriend artık mobilde en üstte yer alan cevap seçeneği olduğundan, Meta, insanları topluluktaki gerçek uzmanlar yerine yapay zeka tavsiyelerine yönlendirme riskini taşıyor.
Tipik bir grup gönderisinde, bir kişinin verdiği kötü tavsiyeler diğer kullanıcılar tarafından kolaylıkla düzeltilebilirken, yapay zeka devreye girdiğinde durum değişiyor. Sistem içerisindeki güvenlik kontrollerinin yetersizliği ortaya çıkıyor. Mantar toplama gibi yeni bir uğraşa adım atmaya hazırlanan kişiler, “aptalca” sorular sormaktan çekinerek, soruları için kendilerini yargılamayacaklarını bildikleri bu bota yönelebiliyorlar. Claypool’un da belirttiği üzere, “Yapay zeka sizi yargılamayabilir, ancak sizi öldürebilir.”