OpenAI CEO’su Sam Altman, OpenAI'nin yapay zeka sohbet robotu ChatGPT ile paylaşılan hassas bilgileri ve belgeleri yasal olarak sunmak zorunda kalabileceği konusunda uyarıda bulundu.
Altman, geçen hafta podcast sunucusu Theo Von ile yaptığı röportajda bu gizlilik boşluğunu "büyük bir sorun" olarak nitelendirdi ve terapistlerle, avukatlarla veya doktorlarla yapılan konuşmalarda geçerli olan yasal ayrıcalık korumalarının, ChatGPT ile yapılan konuşmalarda şu anda geçerli olmadığını açıkladı.
“Ve şu anda, bir terapistle ya da bir avukatla ya da bir doktorla bu problemler hakkında konuşursanız, bunun için yasal bir ayrıcalık var... Ve ChatGPT ile konuştuğunuzda bu durum için bunu henüz çözemedik.”
Altman ayrıca, ChatGPT ile “en hassas şeyleriniz” hakkında konuştuğunuzda ve sonra bir dava açıldığında, “bu bilgileri sunmak zorunda kalabileceğimiz” uyarısında bulundu.
Altman’ın açıklamaları, yapay zekanın psikolojik destek, tıbbi ve finansal danışmanlık gibi alanlarda kullanımının arttığı bir dönemde geldi.
“Bence bu oldukça bozulmuş bir durum,” dedi Altman ve “Yapay zekayla yaptığınız konuşmalar için de bir terapist ile olan konuşmalarda olduğu gibi aynı gizlilik kavramı olmalı” diye ekledi.
Yapay zeka için yasal çerçeve eksikliği
Altman ayrıca yapay zeka için bir yasal politika çerçevesine duyulan ihtiyacı da dile getirdi ve bunun “büyük bir sorun” olduğunu söyledi.
“Bazen bazı yapay zeka araçlarını kullanmaktan bu yüzden korkuyorum çünkü ne kadar kişisel bilgi vermek istediğimi bilmiyorum, çünkü bu bilgilere kimin sahip olacağını bilmiyorum.”
Yapay zeka ile yapılan konuşmalar için, terapistler veya doktorlarla yapılan konuşmalarda geçerli olanla aynı gizlilik kavramının geçerli olması gerektiğine inandığını söyledi. Görüştüğü politika yapıcıların da bunun çözülmesi gerektiği ve hızlı hareket edilmesi gerektiği konusunda hemfikir olduğunu belirtti.
Daha geniş gözetim endişeleri
Altman ayrıca, yapay zekanın küresel çapta hızla benimsenmesinin daha fazla gözetimi beraberinde getireceğinden endişe duyduğunu ifade etti.
“Dünyada ne kadar fazla yapay zeka olursa, dünyanın o kadar fazla gözetim isteyeceğinden endişeliyim,” dedi. Hükümetlerin, insanların bu teknolojiyi terörizm ya da kötü niyetli amaçlar için kullanmadığından emin olmak isteyeceğini söyledi.
Bu nedenle gizliliğin mutlak olmak zorunda olmadığını ve “kolektif güvenlik için bir miktar gizlilikten feragat etmeye tamamen istekli olduğunu” belirtti, ancak bir uyarıda bulundu:
“Tarih gösteriyor ki hükümetler bu işi fazlasıyla abartıyor ve bu beni gerçekten endişelendiriyor.”