“Yapay zeka gazetecileri hedef almayı kolaylaştırabilir”

ABD’de yayınlanan yeni bir rapor üretken yapay zeka ile ilgili sekiz risk belirledi. En endişe verici riskler arasında, yapay zekanın gazetecilerin ve aktivistlerin güvenliğine yönelik oluşturabileceği insan düzeyindeki tehditler yer alıyor

“Yapay zeka gazetecileri hedef almayı kolaylaştırabilir”

Yapay zeka sohbet robotu ChatGPT'nin geçen Kasım ayında piyasaya sürülmesinden bu yana, üretken yapay zekanın popülerliği ile zararlı ve yararlı tarafları hakkında haberler ve makaleler hızla arttı. Sadece 8 ayda yaşanan gelişmeler, robotların dünyayı ele geçirdiği distopik bir geleceğe dair korkuları körükledi.

Bu korkuların çoğu sadece söylentiden ibaret olsa da, yeni bir rapor ChatGPT gibi uygulamaların yarattığı acil riskleri tespit etti. Bunlardan bazıları gazeteciler ve haber endüstrisi için farklı zorluklar içeriyor.

New York Üniversitesi Stern İşletme ve İnsan Hakları Merkezi tarafından yayınlanan raporda, dezenformasyon, siber saldırılar, gizlilik ihlalleri ve haber endüstrisinin yozlaşması dahil üretken yapay zeka ile ilgili sekiz risk belirlendi.

Raporun yazarlarından Paul Barrett VOA'ya yaptığı açıklamada, tartışmanın "varoluşsal tehlikelerle ilgili endişelere karşı üretken yapay zekanın yol açabileceği acil zararlar arasında biraz karmaşıklaştığını" söyledi.

İLGİLİ HABERLER

İsrail istihbarat teşkilatı tehditleri engellemek için üretken yapay zeka kullanıyor

Barrett, "Eyvah, yoksa bu teknoloji insanlığı yok edecek katil robotlara mı yol açacak?" sorusuna saplanıp kalınmaması gerektiğini kaydetti.

Stern Merkezi’nin direktör yardımcısı olan Barrett, şu anda piyasaya sürülen sistemlerin bu kabus gibi sonuca yol açmayacağını belirtti.

Rapor bunun yerine, kanun koyucuların, düzenleyicilerin ve yapay zeka endüstrisinin kendisinin acil potansiyel riskleri ele almaya öncelik vermesi gerektiğine odaklanıyor.

Güvenlik endişeleri

En endişe verici riskler arasında, yapay zekanın gazetecilerin ve aktivistlerin güvenliğine karşı oluşturabileceği insan düzeyindeki tehditler yer alıyor.

Doxxing (‘Dox’lamak) ve karalama kampanyaları, halihazırda gazetecilerin çalışmaları nedeniyle çevrimiçi ortamda karşılaştıkları çok sayıda tehdit arasında yer alıyor. Doxlama, bir kişinin bir başkası hakkında adres ya da telefon numarası gibi özel ya da tanımlayıcı bilgilerin internette yayınlanması anlamına geliyor.

Ancak Barrett'a göre, artık üretken yapay zeka ile gazetecileri doxlamak ve onları çevrimiçi ortamda taciz etmek daha da kolay olacak.

Barrett, "Böyle bir kampanya düzenlemek istiyorsanız, üretken yapay zeka sistemlerini kullanarak çok daha az iş yapmanız gerekecek. Gazetecilere saldırmak daha kolay olacak" dedi.

Propaganda kolaylaşacak

Dezenformasyon, raporun vurguladığı bir diğer temel risk. Çünkü üretken yapay zeka, propaganda yapmayı kolaylaştırıyor.

Rapor, 2016 ABD başkanlık seçimleriyle ilgili dezenformasyon kampanyasında Rusya’nın üretken yapay zekaya erişimi olsaydı, daha yıkıcı ve daha az maliyetli bir nüfuz operasyonu başlatmış olabileceğine dikkat çekti.

Barrett, üretken yapay zekanın "büyük bir verimlilik motoru olacağını, ancak aynı zamanda dezenformasyon oluşturmayı da çok daha etkin hale getireceğini" söyledi.

Araştırmalar, yanlış bilgi ve dezenformasyona maruz kalmanın medyaya olan güvenin azalmasıyla bağlantılı olduğunu gösterdiğinden, bu durum basın özgürlüğü ve medya okuryazarlığı açısından önemli sonuçlar doğurabilir.

Rapora göre, üretken yapay zeka haber merkezlerini zorlayan mali sıkıntıları da kötüleştirebilir.

Örneğin okuyucular ChatGPT'ye bir soru sorar ve özetlenen cevaptan memnun kalırlarsa, haber makalelerine giden diğer bağlantılara tıklama olasılıkları azalır. Rapora göre bu da haber siteleri için trafiğin ve dolayısıyla reklam gelirlerinin azalması anlamına geliyor.

Gazeteciliğe yardımcı da olabilir

Ancak yapay zeka medya sektörü için sadece kötü haber demek değil.

Örneğin, yapay zeka araçları PDF dosyalarını tarayarak ve verileri hızlı bir şekilde analiz ederek gazetecilerin araştırma yapmasına yardımcı olabilir. Yapay zeka ayrıca kaynakların doğruluğunu kontrol etmeye ve manşet yazmaya da yardımcı olabilir.

Rapor ABD hükümetini ise, bu yeni endüstrinin sosyal medya platformlarında yapılan hataların aynısını yapmasına izin vermemesi konusunda uyarıyor: "Üretken yapay zeka, sosyal medya şirketlerinin uzun süredir yararlandığı ayrıcalıkları hak etmiyor" ifadelerine yer veriyor.

Hükümetin yapay zeka şirketlerini denetlemek için federal yetkiyi arttırması ve bu şirketlerden daha fazla şeffaflık talep etmesi de raporun önerileri arasında.

Barrett, "Kongre, düzenleme-denetleme kurumları, kamuoyu ve bu bağlamda sektör, acil potansiyel risklere dikkat etmeli. Eğer endüstri bu konuda yeterince hızlı hareket etmezse, Kongre'nin onları bu konuya eğilmeye zorlayacak bir yol bulması gerekiyor" şeklinde konuştu.

Liam Scott