Çin merkezli yapay zeka şirketi DeepSeek, geçtiğimiz hafta dikkat çeken bir açıklama yaparak yeni yapay zeka modeli DeepSeek V3’ü tanıttı. Yazı yazma ve kodlama gibi metin tabanlı görevlerde yüksek performans sergileyen bu model, OpenAI ve Meta’nın önde gelen modellerini geride bırakacak düzeyde bir başarı vaat ediyor. Ancak DeepSeek V3’ün oldukça ilginç bir özelliği daha var: Kendisini OpenAI’nin ChatGPT modeli olarak tanımlıyor.
DeepSeek V3, kendisine sorulduğunda OpenAI’nin 2023 yılında piyasaya sürdüğü GPT-4 modeli olduğunu iddia ediyor ve hatta OpenAI’nin API kullanım talimatlarını paylaşıyor. Modelin verdiği yanıtlar, ChatGPT’nin bilinen şakalarıyla da örtüşüyor. Bu garip durumun arkasında, yapay zekanın eğitildiği verilerle ilgili bir sorun olabileceği düşünülüyor.
Eğitim Verilerinin Etkisi: “Kirlenme” Sorunu
Yapay zeka modelleri, dil kalıplarını öğrenmek ve tahminlerde bulunmak için büyük miktarda veri üzerinde eğitilir. DeepSeek V3, büyük dil modellerine (LLM) dayanarak geliştirilmiş bir model. Ancak DeepSeek, modelin hangi verilerle eğitildiğini açıklamıyor. Bu durum, modelin ChatGPT tarafından üretilmiş içerikler içeren kamuya açık veriler üzerinde eğitilmiş olabileceğine işaret ediyor. Eğer bu doğruysa, DeepSeek V3, ChatGPT’nin çıktılarının bir kısmını ezberlemiş olabilir.
Uzmanlara göre, bir yapay zeka modelinin başka bir yapay zeka modelinin verileriyle eğitilmesi, bilgi kaybına yol açabilir ve kaliteli sonuçlar alınmasını engelleyebilir. Bu süreç, fotokopinin fotokopisini çekmek gibi bir etki yaratabilir. Ayrıca, OpenAI’nin hizmet koşullarını ihlal eden bu uygulama, yapay zeka modellerinin “halüsinasyon” olarak adlandırılan hatalı veya yanıltıcı bilgiler üretme olasılığını artırabilir.
Yapay Zeka İçerikleri İnterneti Dolduruyor
OpenAI CEO’su Sam Altman, bu tür uygulamalara yönelik dolaylı bir eleştiride bulunarak, “Çalıştığını bildiğiniz bir şeyi kopyalamak kolaydır. Ancak işe yarayıp yaramayacağını bilmediğiniz yeni bir şey yapmak inanılmaz zordur” dedi.