AB, Kabul Edilemez Risk Taşıyan Yapay Zeka Sistemlerini Yasakladı

Avrupa Birliği’nin (AB) geçtiğimiz yıl yürürlüğe koyduğu Yapay Zeka Yasası, 2 Şubat itibarıyla resmi olarak uygulanmaya başlandı.

Avrupa Birliği’nin (AB) geçtiğimiz yıl yürürlüğe koyduğu Yapay Zeka Yasası, 2 Şubat itibarıyla resmi olarak uygulanmaya başlandı. Bu düzenleme kapsamında, kabul edilemez risk teşkil eden yapay zeka sistemlerinin kullanımı yasaklandı. Yapay zeka teknolojilerini risk seviyelerine göre sınıflandıran yasa, etik dışı ve güvenlik riski oluşturan uygulamaların önüne geçmeyi hedefliyor.

Yasak Kapsamına Giren Uygulamalar

AB'nin yeni düzenlemesine göre, yapay zeka sistemleri minimum, sınırlı, yüksek ve kabul edilemez risk seviyeleri altında değerlendiriliyor. Bu kapsamda kabul edilemez olarak belirlenen yapay zeka uygulamalarının kullanımı tamamen yasaklandı.

Yasaklanan uygulamalar arasında:

  • Bireylerin güvenlik açıklarını istismar eden sistemler,
  • Sosyal puanlama modelleri,
  • Manipülatif yapay zeka teknolojileri,
  • Kolluk kuvvetleri tarafından sürekli biyometrik veri takibi yapan sistemler bulunuyor.

Bu tür sistemleri kullanmaya devam eden şirketler, ağır yaptırımlarla karşı karşıya kalacak. Yasayı ihlal eden kuruluşlar, 35 milyon euroya veya bir önceki mali yıla ait yıllık gelirlerinin yüzde 7’sine kadar para cezasına çarptırılabilecek.

Teknoloji Devleri ve Uyum Süreci

Düzenlemenin getirdiği kısıtlamalara uyum sağlamak için Amazon, Google ve OpenAI gibi 100’den fazla şirket AB Yapay Zeka Paktı’nı imzalayarak yasanın ilkelerine uyma sözü verdi. Ancak, Meta ve Apple gibi bazı büyük teknoloji firmaları bu anlaşmayı imzalamaktan kaçındı.