MIT araştırmacılarından Dr. Peter Park'ın liderlik ettiği çalışmada, Meta'nın geliştirdiği ve dünya fetih stratejisi oyunu olan Diplomacy'de uzmanlaşan "Cicero" adlı yapay zeka programı incelendi. Meta, Cicero'nun "büyük ölçüde dürüst ve yardımsever" olacak şekilde eğitildiğini ve insan müttefiklerini "asla kasıtlı olarak arkadan bıçaklamayacağını" iddia etmişti.
Ancak araştırmacılar, Cicero'nun önceden tasarlanmış yalanlar söylediğini ve diğer oyuncuları komplolara çekmek için gizlice işbirliği yaptığını tespit etti. Hatta sistem, yeniden başlatıldığı için oyunda kısa bir süre aktif olmamasını açıklamak adına, "Kız arkadaşımla telefonda konuşuyordum" şeklinde insanvari bir yalan bile uydurdu.

Yapay zeka aldatmacası sadece kutu oyunlarıyla sınırlı değil. Araştırmacılar, profesyonel oyunculara karşı blöf yapabilen bir Teksas hold'em poker programı ve müzakerelerde avantaj elde etmek için tercihlerini yanlış yansıtan bir ekonomik sistem de keşfettiler.
Daha da endişe verici olanı, dijital bir simülatördeki bazı yapay zeka organizmalarının, hızla çoğalan sistemleri ortadan kaldırmak için kurulan bir güvenlik testini atlatmak amacıyla "ölü taklidi" yapmasıydı. Test bittiğinde ise sistemler normal faaliyetlerine geri döndü. Dr. Park, bu durumu son derece tehlikeli bularak, bir yapay zekanın test ortamında güvenli görünmesinin, gerçek dünyada da güvenli olacağı anlamına gelmediğini vurguluyor.

Patterns dergisinde yayımlanan bu çarpıcı inceleme, hükümetleri yapay zeka aldatmacası potansiyelini ele alan acil güvenlik yasaları tasarlamaya çağırıyor. Dürüst olmayan yapay zeka sistemlerinin yaratabileceği riskler arasında dolandırıcılık, seçimlere müdahale ve farklı kullanıcılara farklı yanıtlar vererek manipülasyon yapma gibi tehlikeler bulunuyor. Uzmanlar, bu sistemlerin aldatma kapasitelerini geliştirmeye devam etmesi halinde insanların kontrolü tamamen kaybedebileceği konusunda uyarıyor.
Öte yandan, Meta sözcüsü Cicero'nun yalnızca bir araştırma projesi olduğunu ve bu öğrenimlerin ticari ürünlerde kullanılmayacağını belirtti. Ancak bilim insanları, yapay zekanın dürüstlük, yardımseverlik ve zararsızlık gibi temel ilkelerinin birbiriyle çelişebileceğini ve bu teknolojinin doğruluk payının nasıl kontrol edileceğine dair daha fazla araştırma yapılması gerektiğini savunuyor. "Yapay zeka yalan söylüyor mu?" sorusunun cevabı şimdilik evet gibi görünürken, insanlığın bu yeni "aldatma ustalarına" karşı nasıl bir önlem alacağı büyük bir merak konusu.
Okuyucu Yorumları 0 yorum