Yapay zeka, şüphesiz son yılların en büyük teknolojik gelişimlerinden bir tanesi. Kısa süre içerisinde birçok farklı alanda büyük bir etkiye sahip olan yapay zeka, insan hayatını büyük bir oranda kolaylaştırdığı gibi, negatif etkileri de yadsınamayacak kadar fazla.

Yapay zekanın, özellikle de insanların yaptığı neredeyse her şeyi yapabilmeye başlamasıyla birlikte, gelecekte potansiyel riskler taşıdığı da söylenebilir.

Elon Musk ve teknoloji liderleri, yapay zekaya mahal bırakmak istemiyor

2.600'den fazla teknoloji lideri ve araştırmacı, toplum ve insanlık için derin risklerden endişe ederek, yapay zekanın (AI) geliştirilmesine geçici bir ara verilmesi çağrısında bulunan açık bir mektuba imza attı.

ABD düşünce kuruluşu Future of Life Institute (FOLI) tarafından yayınlanan mektubu imzalayanlar arasında Tesla CEO'su Elon Musk, Apple'ın kurucu ortağı Steve Wozniak ve bir dizi yapay zeka CEO'su, CTO'su ve araştırmacı yer aldı.

Kuruluş, tüm yapay zeka şirketlerini GPT-4'ten daha güçlü yapay zeka sistemlerinin eğitimini en az altı ay süreyle derhal durdurmaya davet ederek, diğer hususların yanı sıra insan-rekabetçi zekanın toplum ve insanlık için derin riskler oluşturabileceği yönündeki endişelerini gün yüzüne çıkardı.

FOLI'den ayrıca konuya ilişkin "Gelişmiş yapay zeka, Dünya'daki yaşam tarihinde derin bir değişimi temsil edebilir ve buna uygun özen ve kaynaklarla planlanmalı ve yönetilmelidir. Ne yazık ki, bu düzeyde bir planlama ve yönetim gerçekleşmiyor" açıklamaları geldi.

Bilindiği üzere OpenAI'ın yapay zeka destekli sohbet robotu GPT-4'ün son sürümü, 14 Mart'ta piyasaya sürüldü. Ayrıca, ChatGPT'nin, bugüne kadar ABD'nin en zorlu lise ve hukuk sınavlarından bazılarını 90. yüzdelik dilimde geçtiğini de hatırlatmakta fayda var. Yapıla açıklamalar ise GPT-4'ün, orijinal versiyonundan 10 kat daha gelişmiş olduğu yönünde.

FOLI, yapay zeka şirketlerinin, daha güçlü yapay zeka geliştirmek için kontrolden çıkmış bir yarış içinde olduğunu ve bu yarışı geliştiricilerinin bile anlayamadığını, tahmin edemediğini ya da güvenilir bir şekilde kontrol edemediğini iddia etti.

En önemli endişeler arasında, makinelerin bilgi kanallarını potansiyel olarak propaganda ve gerçek dışı bilgilerle doldurup doldurmayacağı ve makinelerin tüm istihdam fırsatlarını tamamen otomatikleştirip otomatikleştirmeyeceği de yer alıyor.

FOLI, bu endişeleri bir adım öteye taşıyarak, bu yapay zeka şirketlerinin girişimcilik çabalarının varoluşsal bir tehdide yol açabileceğini öne sürdü:

"Eninde sonunda sayıca üstün, akıllı, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştirmeli miyiz? Uygarlığımızın kontrolünü kaybetme riskini göze almalı mıyız?"

Bununla birlikte bu tür kararların seçilmemiş teknoloji liderlerine devredilmemesi gerektiğinin de altı çizildi.

Düşünce kuruluşu, OpenAI kurucusu Sam Altman'ın, gelecekteki yapay zeka sistemlerini eğitmeden önce bağımsız bir inceleme yapılması gerektiği yönündeki açıklamasına da katılıyor.

Altman, 24 Şubat tarihli blog yazısında yapay genel zeka (AGI) ve yapay süper zeka (ASI) robotlarına hazırlıklı olunması gerektiğinin altını çizdi.

İlginizi çekebilir: ChatGPT artık yeni OpenAI eklentileri ile internete erişebiliyor

Ancak tüm yapay zeka uzmanları, dilekçeyi imzalamak için acele etmedi. SingularityNET'in CEO'su Ben Goertzel, Rebooting.AI kitabının yazarı Gary Marcus'a geçtiğimiz gün Twitter'dan verdiği yanıtta, dil öğrenme modellerinin (LLM) AGI'lere dönüşmeyeceğini ve bugüne kadar bu konuda çok az gelişme olduğunu savundu.

Goertzel, yapay zeka çalışmalarının yavaşlatılmasının yerine, biyolojik silahlar ve nükleer silahlar gibi konularda araştırma ve geliştirmenin yavaşlatılması gerektiğini öne sürdü.