ChatGPT gibi daha güçlü yapay zeka hizmetleri geliştirme yarışı hızlanırken, bazı düzenleyiciler toplumların ve işletmelerin çalışma şeklini değiştirebilecek bu teknolojiyi kontrol etmek için eski yasalara güveniyor.

Avrupa Birliği, OpenAI'nin ChatGPT'sinin arkasındaki üretici yapay zeka teknolojisindeki hızlı ilerlemelerle ortaya çıkan gizlilik ve güvenlik endişeleri çıkıyor. AB, bu endişeleri gidermek için küresel ölçüt oluşturabilecek yeni yapay zeka kurallarının hazırlanmasında ön saflarda yer alıyor. Ancak mevzuatın yürürlüğe girmesi birkaç yıl alacaktır.

BIP danışmanlık şirketinde Avrupa veri yönetimi uzmanı olan Massimiliano Cimnaghi, konuyla ilgili şunları söyledi:

Düzenlemelerin yokluğunda, hükümetlerin yapabileceği tek şey mevcut kuralları uygulamaktır. Kişisel verilerin korunması söz konusuysa, veri koruma yasalarını uygulanır, insanların güvenliğine yönelik bir tehdit söz konusuysa, yapay zeka için özel olarak tanımlanmamış düzenlemeler vardır, ancak bunlar yine de uygulanabilir.

Yapay zeka ve Garante

Nisan ayında, Avrupa'nın ulusal gizlilik gözlemcileri, İtalyan düzenleyici Garante'nin OpenAI'yi 2018'de yürürlüğe giren geniş kapsamlı bir gizlilik rejimi olan AB'nin GDPR'sini ihlal etmekle suçlamıştı. Bu gelişmenin ardından ise Avrupa'nın ulusal gizlilik gözlemcileri, OpenAI hizmetini çevrimdışı hale getirmesinin ardından ChatGPT ile ilgili sorunları ele almak için bir görev gücü kurdu.

ChatGPT, ABD'li şirketin yaş doğrulama özelliklerini kurmayı ve Avrupalı kullanıcıların bilgilerinin yapay zeka modelini eğitmek için kullanımının engellenmesinin ardından eski haline getirildi.

Garante'ye yakın bir kaynak Reuters'a yaptığı açıklamada, ajansın diğer üretici yapay zeka araçlarını daha geniş kapsamlı olarak incelemeye başlayacağını söyledi. Fransa ve İspanya'daki veri koruma yetkilileri de Nisan ayında OpenAI'nin gizlilik yasalarına uygunluğuna ilişkin soruşturmalar başlatmıştı.

İlginizi çekebilir: Yapay zeka (AI), insanlığın geleceğini tehdit ediyor mu?