Reuters'ın haberine göre, yapay zeka araçlarını kullanan şirketler, sistemlerini geliştirme adına kullandıkları materyalleri açıklamak durumunda kalacak.
Avrupa Komisyonu, OpenAI'nın yapay zeka botu ChatGPT'nin piyasaya sürülmesiyle bu teknolojiyi düzenlemek için yaklaşık iki yıl önce Yapay Zeka Yasası için çalışmalarına başladı.
Avrupa Parlamentosu, hazırlanan taslağı daha sonraki aşamaya taşımak için anlaşmaya vardı.
Yeni teklif kapsamında, yapay zeka araçlarının risk seviyelerine göre sınıflandırılmaları konusunda görüş birliğine varıldı. Riskler arasında, biyometrik takip, dezenformasyon ve ayrımcılık gibi etmenler yer alıyor.
Bu kapsamda yüksek riskli olarak belirlenen araçların yasaklanması gibi bir durum söz konusu değil. Ancak bu araçları kullanan şirketlerin daha şeffaf olması gerekecek.
Bununla birlikte ChatGPT gibi yapay zeka araçlarını aktif bir biçimde kullanan şirketler, sistemlerini geliştirme adına kullandıkları araçların telif haklarıyla korunan materyallerini de ifşa etmek durumunda kalacak.
Şeffaflık şartı geldi
Anonim bir kaynağa göre, komite üyeleri, yapay zeka modellerini eğitmek için kullanılan ve telif haklarıyla korunan araçların yasaklanmasını önerdi. Ancak daha sonra şeffaflığın sağlanması koşuluyla bu karardan vazgeçildi.
Avrupa Parlamentosu milletvekili Svenja Hahn, konuyla ilgili görüşlerini paylaştı:
"Daha fazla gözetim için muhafazakar taleplere ve solcuların aşırı düzenleme hayallerine karşın Parlamento, yapay zekayı orantılı bir biçimde düzenleyecek, vatandaşların haklarını koruyacak, inovasyonu teşvik edecek ve ekonomiyi canlandıracak sağlam bir uzlaşı buldu"
OpenAI, geçtiğimiz yılın sonlarında yapay zeka botu ChatGPT'yi tanıtmış ve bu tüm dünyada çeşitli endişelere neden olmuştu.