Yapay zeka (AI) şirketi OpenAI, gizlilik, siber güvenlik sorunları ve güvenlik açığı endişeleriyle mücadele etmek için bir program başlattı. Program, farklı ülkelerdeki yasakları da kapsıyor.
ChatGPT'nin arkasındaki şirket OpenAI, 11 Nisan'da sistemlerindeki güvenlik açıklarını tespit etmeye ve çözmeye yönelik olarak OpenAI "Hata Ödül Programı"nı başlattığını duyurdu.
Açıklamaya göre program, OpenAI'ın teknolojisi ve şirketinin güvende kalmasına katkıda bulunan siber güvenlik araştırmacılarını ödüllendirmeyi amaçlıyor.
OpenAI, Ödül programıyla sistemini geliştirmeye odaklandı
OpenAI, dünya çapındaki güvenlik araştırmacıları, etik hacker’lar ve teknoloji meraklılarından oluşan topluluğu bu organizasyona davet etti. Araştırmacılara program kapsamına yönelik güvenlik açığı bilgileri için teşvikler sundu. AI şirketi, uzmanlık ve dikkatin, sistemlerinin güvende tutulması ve kullanıcıların güvenliğinin sağlanması konusunda doğrudan etkili olacağına inanıyor.
Ödül Programı, Japonya hükümetinin Başbakan Yardımcısı Hirokazu Matsuno'nun pazartesi günü yaptığı açıklamanın ardından başlatıldı. Başbakan Yardımcısı Matsuno, Japonya'nın gizlilik ve siber güvenlik sorunlarının ele alındığı sürece, yapay zeka teknolojisini hükümet sistemlerine entegre etmeyi düşüneceğini de belirtti.
OpenAI, 20 Mart'ta açık kaynaklı bir kütüphanedeki bir hata nedeniyle kullanıcı verilerinin başka bir kullanıcıya ifşa olduğu bir veri ihlali yaşadı.
Şirketin yaptığı açıklamada, OpenAI'ın hata ödül sürecini ve ödül yönetimini sağlamak için Bugcrowd adlı hata ödül platformu ile ortaklık kurduğu belirtildi. Tüm katılımcılara sorunsuz bir deneyim sağlamak amacıyla, nakit ödüller, bildirilen sorunların önemi ve kapsamına göre verilecek. Ödüller, az riskli tespitler için 200 dolardan başlayarak, istisnai tespitler için 20.000 dolara kadar çıkıyor.
İlginizi çekebilir: GPT-4 uygulamaları kriptolar için yıkıcı etkilere mi sahip?
OpenAI şirketininin belirttiği özel yönergeler doğrultusunda gerçekleştirilen güvenlik açığı araştırmaları için Safe harbor (Güvenli Liman) koruması sağlanıyor. Bu doğrultuda ise araştırmacıların, geçerli tüm yasalara uymaları bekleniyor.
Eğer programda yer alan siber güvenlik araştırmacısına OpenAI'nin hata ödül programına katıldığı ve programın kurallarına uyduğu için üçüncü taraflardan bir yasal işlem başlatılırsa, OpenAI, araştırmacının programın yönergeleri çerçevesinde hareket ettiğini başkalarına bildireceğini de belirtiliyor. Bu uygulamanın nedeni ise OpenAI'nin sistemlerinin diğer üçüncü taraf sistemler ve hizmetlerle bağlantılı olması.