ChatGPT, federal bir avukatı cinsel saldırıyla yanlış bir şekilde suçlamak da dahil olmak üzere yanlış içerik oluşturabilir. ChatGPT'nin arkasındaki şirket olan OpenAI, çarşamba günü yaptığı açıklamada, yapay zeka hatalarını azaltmak amacıyla chatbot'un matematiksel problem çözme yeteneklerini geliştirdiğini söyledi.
OpenAI'den yapılan açıklamada, şunlar yer alıyor:
Safsataları azaltmak, hizalanmış bir AGI oluşturmaya yönelik kritik bir adımdır.
ChatGPT'nin en son iterasyonu olan GPT-4, mart ayında piyasaya sürüldü ve yapay zekayı ana akıma itmeye devam etti. Ancak üretken yapay zeka sohbet robotları, geçmişte gerçeklerle ilgili sorunlar yaşadı ve halk arasında safsata olarak bilinen yanlış bilgileri ortaya çıkardı.
Yapay zeka safsataları, bir yapay zeka modelinin gerçek dünya verileriyle desteklenmeyen beklenmedik, doğru olmayan sonuçlar ürettiği durumları ifade eder. Yapay zeka safsataları, yanlış içerik, haber veya kişiler, olaylar veya olgular hakkında bilgi olabilir.
OpenAI, kullanıcıları ChatGPT'ye körü körüne güvenmemeleri konusunda uyarıyor ve şu şekilde bir feragatname sunuyor:
ChatGPT insanlar, yerler veya gerçekler hakkında yanlış bilgiler üretebilir.
OpenAI safsatalarla ilgili en son araştırmaya yol açan herhangi bir spesifik örnek vermese de yakın zamanda yaşanan iki olay konuyu gerçek dünya koşullarında gösterdi.
OpenAI, ChatGPT ve hatalar
Nisan ayında, ABD'li bir ceza savunma avukatı ve hukuk profesörü olan Jonathan Turley, ChatGPT'nin kendisini cinsel saldırıda bulunmakla suçladığını iddia etti. Daha da kötüsü, yapay zeka iddiayı kanıtlamak için bir Washington Post makalesi uydurmuş ve alıntılamıştı.
Geçtiğimiz hafta, Mata v. Avianca Airlines davasında avukat olan Steven A. Schwartz, araştırma yaparken kaynak olarak chatbot'a danıştığını itiraf etti. ChatGPT'nin Schwartz'a sağladığı sonuçların hepsi uydurmaydı.
Schwartz mahkemeye sunduğu yeminli ifadesinde şunları söyledi:
Chat GPT'nin sağladığı hukuki görüşlerin kaynaklarını teyit etmemek, beyan sahibinin hatasıdır. Araştırmayı desteklemek için üretken yapay zekadan yararlandığım için büyük pişmanlık duyuyorum.
Schwartz, gerçekliğini kesin olarak doğrulamadan bunu bir daha asla yapmayacağına yemin etti.
Şubat ayında teknoloji devi Microsoft, gazetecilere Bing'in kazanç raporları, elektrikli süpürge özellikleri ve seyahat planları da dahil olmak üzere chatbot yeteneklerinin bir gösterimini yaptı. Sonuçlar pek de parlak değildi. Bu sorunlara rağmen Microsoft, OpenAI'ye yaptığı 13 milyar dolarlık yatırımın ardından teknolojiyi Bing web tarayıcısına dahil ederek ChatGPT üzerine büyük bir bahis oynuyor.
OpenAI araştırmasında, nihai sonuca dayalı geri bildirim sağlayan sonuç denetimi ile bir düşünce zincirindeki her adım için geri bildirim sağlayan süreç denetimini karşılaştırdı ve şunları açıkladı:
Süreç denetimli ve sonuç denetimli ödül modellerimizi matematik test setindeki problemleri kullanarak değerlendiriyoruz. Her bir problem için birçok çözüm üretiyoruz ve ardından her bir ödül modeli tarafından en üst sıraya yerleştirilen çözümü seçiyoruz.
Araştırma ekibi, süreç denetiminin, modeli insan onaylı bir süreci takip etmeye teşvik ettiği için daha iyi performans sağladığı sonucuna varırken, sonuç denetiminin incelenmesinin genellikle daha zor olduğu sonucuna vardı.
OpenAI, sonuçların matematiğin ötesine nasıl geçeceğinin bilinmediğini kabul etti ancak gelecekteki çalışmaların süreç denetiminin diğer alanlardaki etkisini araştırması gerektiğini söyledi. Şirket, araştırmaları teşvik etmek için süreç denetimine ilişkin tüm veri setini yayınladı. OpenAI, konuyla ilgili şunları söyledi:
Bu sonuçlar genelleşirse, süreç denetiminin bize her iki dünyanın da en iyisini sunduğunu görebiliriz. Bu, sonuç denetiminden hem daha performanslı hem de daha uyumlu bir yöntem.
İlginizi çekebilir: Azure’dan günümüze: Microsoft ile yapay zeka