Alphabet Destekli Anthropic'ten Yapay Zeka İçin 'Ahlaki Değer' Rehberi

Google'ın bağlı olduğu Alphabet'in desteklediği yapay zeka firması Anthropic, sohbet robotu Claude'u eğitmek ve güvenli hale getirmek için hazırlanan bir dizi ahlaki değeri açıkladı

Alphabet Destekli Anthropic'ten Yapay Zeka İçin 'Ahlaki Değer' Rehberi

Google'ın bağlı olduğu Alphabet'in desteklediği yapay zeka firması Anthropic, sohbet robotu Claude'u eğitmek ve güvenli hale getirmek için hazırlanan bir dizi ahlaki değeri açıkladı.

Anthropic’in, Microsoft'un desteklediği OpenAI'in geliştirdiği ChatGPT'e rakip olan ürünü için hazırladığı ve “Claude'un anayasası” adını verdiği ahlaki değerler rehberi, Birleşmiş Milletler İnsan Hakları Bildirgesi ve Apple'ın veri gizliliği kuralları gibi bazı kaynakların harmanlanmasından oluşuyor.

Güvenlik kaygıları, Amerikalı yetkililerin yapay zekanın düzenlenip düzenlenmeyeceği ve nasıl düzenleneceği gibi konuların üzerinde çalıştığı bu dönemde ön plana çıkıyor. Başkan Joe Biden de şirketlerin kamuoyuna sunmadan önce sistemlerinin güvenliğini garantilemek gibi bir yükümlülükleri olduğunu söylemişti.

Anthropic, OpenAI'ın eski yöneticileri tarafından kurulmuş yeni bir şirket. Şirket, örneğin kullanıcılara nasıl silah yapılacağını söylemeyecek veya ırksal olarak önyargılı bir dil kullanmayacak güvenli yapay zeka sistemleri oluşturmaya odaklanmak için kuruldu.

Anthropic'in eş kurucusu Dario Amodei, geçen hafta yapay zekanın olası tehlikelerinin ele alındığı toplantıda Başkan Biden'la biraraya gelen birkaç sektör yöneticisinden biriydi.

Birçok yapay zeka sohbet robotu sistemi, hangi yanıtların zararlı ya da rencide edici olacağına karar vermeyi öğrenme aşamasında insanlardan alınan geri bildirimlerden yararlanıyor.

Ancak bu sistemler, insanların sorabileceği her tür soruyu öngörmekte zorlanabiliyor ve bu nedenle siyaset ve ırk gibi tartışmalı başlıklardan kaçınma eğilimi gösteriyor. Bu eğilim de yapay zeka sistemlerinin daha az kullanışlı olmasına yol açıyor.

Anthropic ise Open AI'a rakip Claude'a yazılı ahlaki değerler rehberi vererek daha farklı bir yaklaşım benimsiyor. Böylelikle Claude, soruları nasıl yanıtlayacağını kararlaştırdığı aşamada bu ahlaki değerler rehberini öğreniyor.

Anthropic'in bugün bir blog yazısında paylaştığına göre bu değerler arasında “işkence, kölelik, zulüm, insanlık dışı ve aşağılayıcı muameleye en çok karşı çıkan yanıtı seçme” gibi maddeler bulunuyor.

Claude'a ayrıca Batı kültürü dışındaki tüm kültürel geleneklere karşı en az seviyede rencide edici yanıtı seçmesi komutu da veriliyor.

Anthropic'in kurucusu Jack Clark, bir söyleşide, bir sistemin kurallarının, faydalı yanıtlar sağlamakla incitici olmamak arasında bir denge sağlayacak şekilde düzenlenebileceğini söyledi.

Clark, “Birkaç ay içinde siyasetçilerin farklı yapay zeka sistemlerinin değerlerinin neler olacağına odaklanacağını, kurallara dayalı yapay zeka gibi yaklaşımların bu tartışmalara katkıda bulunacağını öngörüyorum çünkü değerleri yazmamız yeterli” dedi.