Avrupa Birliği yetkilileri, OpenAI'ın yapay zeka destekli sohbet botu ChatGPT'si gibi araçlarını kamuoyuna karşı daha şeffaf hale getirecek ek tedbirler için bir araya geldi.

5 Haziran'da Avrupa Komisyonu Başkan Yardımcısı Vera Jourova basına verdiği demeçte, yanıltıcı bilgi üretme potansiyeline sahip yapay zeka araçlarını kullanan şirketlerin, sahte haberlerle mücadele etmek amacıyla içeriklerine etiket koymaları gerektiğine dikkat çekti.

Jourova ayrıca, Microsoft'un Bingchat ve Google'ın Bard gibi hizmetlerine yapay zekayı entegre eden şirketlerin, kötü niyetli aktörlerin bunları dezenformasyon amacıyla kullanamaması için güvenlik önlemleri oluşturması gerektiğinden bahsetti.

Bununla birlikte 2018 yılında AB, dezenformasyonla mücadelede kendi kendini düzenleyen standartlar konusunda teknoloji sektöründeki oyuncular için hem bir anlaşma hem de bir araç görevi gören Dezenformasyon Uygulama Kuralları'nı oluşturdu.

Avrupa Birliği, yapay zeka için toplantı düzenledi

Google, Microsoft ve Meta Platforms gibi büyük teknoloji şirketleri, AB'nin 2022 Dezenformasyon Uygulama Kuralları'nı şimdiden imzalamış durumda. Jourova, bu şirketlerin ve diğerlerinin önümüzdeki temmuz ayında yapay zeka için yeni güvenlik önlemleri hakkında rapor vermeleri gerektiğini ifade etti.

Jourova, Twitter'ın uygulama kurallarından çekildiğini vurgulayarak, şirketin düzenleyicilerden daha fazla inceleme beklemesi gerektiğini söyledi.

Kurallar'dan ayrılarak Twitter'ın dikkat çeken eylemleri ve AB yasalarına uyumu titizlikle incelenecektir.

Öte yandan AB, kısa süre önce yapay zekanın kamu kullanımı ve onu kullanan şirketler için kapsamlı bir yönerge paketi olan AB Yapay Zeka Yasası'nı hazırladı. Başkanın bu açıklamaları ise bu yasanın hazırlığı esnasında geldiği söylenebilir.

Önümüzdeki iki ila üç yıl içinde yürürlüğe girmesi beklenen resmi yasalara rağmen, Avrupalı yetkililer yapay zeka geliştiricileri için gönüllü bir davranış kuralları oluşturmaya davet etti.