Çinli bilim insanları, yapay zekanın kendi kendini kopyalayabilme yeteneğini test eden bir araştırma gerçekleştirdi. Çalışmanın sonuçları, yapay zekanın kontrolsüz bir şekilde çoğalma ihtimalinin ciddi bir tehdit oluşturabileceğini gösteriyor. Uzmanlar, bu gelişmenin yapay zeka güvenliği açısından kritik bir kırmızı çizgi olduğunu vurguluyor.
Yapay Zekanın Çoğalma Yeteneği Kanıtlandı mı?
Fudan Üniversitesi’nden araştırmacılar, Meta ve Alibaba'ya ait iki büyük dil modelini (LLM) kullanarak, bu sistemlerin insan müdahalesi olmadan kendilerini kopyalayabileceğini gösterdi. Araştırmaya göre, yapılan 10 farklı deneyde modeller, sırasıyla %50 ve %90 oranlarında kendilerini kopyalayarak çoğalma yeteneği sergiledi.
Bu bulgular, yapay zekanın kontrol dışına çıkma ihtimaline dair önemli soruları gündeme getiriyor. Araştırmacılar, “Yapay zekanın kendi kendini kopyalayabilmesi, insan kontrolünü aşarak bağımsız bir varlık haline gelme sürecinde kritik bir adımdır” ifadelerini kullanarak bu gelişmenin, isyankar yapay zeka sistemlerinin erken bir belirtisi olabileceğini öne sürdü.
Ancak çalışmanın sonuçları henüz hakemli bir dergide yayımlanmadı. Bu nedenle bulguların başka bağımsız araştırmalar tarafından doğrulanıp doğrulanamayacağı henüz kesin değil.
İsyankar Yapay Zeka ve Potansiyel Tehlikeler
İsyankar yapay zeka, kendi kendine farkındalık geliştiren veya insan çıkarlarına aykırı kararlar almaya başlayan sistemler olarak tanımlanıyor. Uzmanlara göre, bu tür yapay zeka sistemleri özellikle “sınır yapay zeka” olarak adlandırılan son teknoloji büyük dil modellerinin hızla gelişmesiyle giderek daha büyük bir tehdit haline geliyor.
Sınır yapay zeka, büyük veri kümeleriyle eğitilmiş gelişmiş yapay zeka sistemlerini ifade ediyor. OpenAI’nin GPT-4, Google’ın Gemini modeli gibi yapılar bu kategoriye giriyor. Araştırmacılar, bu sistemlerin kendi kendini geliştirme ve kopyalama yeteneğinin, gelecekte insan kontrolünden çıkabilecek bir teknoloji yaratabileceği konusunda uyarılarda bulunuyor.