Yapay Zeka Yasası (AI Yasası), yapay zeka teknolojilerinin geliştirilmesini ve kullanımını yönetmek için Avrupa Birliği tarafından getirilen dönüm noktası niteliğinde bir düzenlemedir.
İçindekiler
AB Yapay Zeka Yasası, yapay zeka sistemlerinin nasıl geliştirileceğini, pazara sürüleceğini ve Avrupa Birliği içinde nasıl kullanılacağını yöneten kapsamlı bir düzenleyici çerçevedir. Hem yapay zeka sağlayıcıları hem de dağıtımcılar için geçerlidir ve yapay zeka sistemlerinin bireyleri, toplumu ve temel hakları nasıl etkilediğine dayalı olarak net yasal yükümlülükler oluşturur. Yasa, yapay zeka yaşam döngüsü boyunca şeffaflık, risk yönetimi, insan gözetimi, veri yönetişimi ve siber güvenlik için gereklilikler belirleyerek sağlık, güvenlik ve temel hakları korurken inovasyonu teşvik eder.
AB Yapay Zeka Yasası, risk tabanlı bir yaklaşım kullanır, yani yapay zeka sistemleri bireyler ve toplum için oluşturdukları risk seviyesine göre düzenlenir. Potansiyel risk ne kadar yüksek olursa, sağlayıcılara ve dağıtımcılara getirilen yükümlülükler de o kadar katı olur.
Yapay Zeka Yasasının ihlalleri, hangisi daha yüksekse, 35 milyon Euro'ya veya küresel yıllık cironun %7'sine kadar para cezalarıyla sonuçlanabilir.
2 Şubat 2025'ten bu yana, sağlayıcılar ve dağıtımcılar personel arasında yeterli yapay zeka okuryazarlığını sağlamalıdır. Eğitim önerilir ancak zorunlu değildir.
Önemli hususlar arasında şirketin rolü, yapay zekanın genel olarak anlaşılması, ilişkili riskler ve teknik bilgi ve bağlama dayalı özelleştirilmiş okuryazarlık önlemleri yer alır.
AB Yapay Zeka Yasasının uygulanması, kuruluşların düzenleyici yükümlülükleri operasyonel kontrollere dönüştürmesini gerektirir. Denetimler, şirketlerin yapay zeka sistemlerinin nasıl kullanıldığını, risklerin nerede olduğunu ve hangi uyum önlemlerinin gerekli olduğunu anlamalarına yardımcı olarak bu süreçte kritik bir rol oynar.
Bu denetimlerin amacı:
Uygulamada, bu değerlendirmeler yapay zeka yönetişim programlarının temelini oluşturur ve kuruluşların riske ve mevzuata maruz kalmaya dayalı olarak uyum çabalarına öncelik vermelerine olanak tanır.
AB Yapay Zeka Yasası, kuruluşlara yapay zeka yönetişimi, risk yönetimi ve uyumluluk programlarını uyarlamaları için zaman tanıyan aşamalı bir uygulama zaman çizelgesini izler. Önemli kilometre taşları, yönetmeliğin ne zaman yürürlüğe girdiğini, belirli yükümlülüklerin ne zaman geçerli olduğunu ve tam uyumluluğun ne zaman gerekli olduğunu içerir.
Tarih
Dönüm Noktası
1 Ağustos 2024
AB Yapay Zeka Yasası, resmi olarak AB yasası haline gelerek yürürlüğe girdi.
2 Şubat 2025
Yasaklanan yapay zekâ uygulamalarına ilişkin hükümler yürürlüğe girdi. Uygulamadan sorumlu ulusal makamlar atanır.
2 Ağustos 2025
Genel amaçlı AI (GPAI) modelleri ve ilgili yönetişim yükümlülükleri için kurallar uygulanmaya başlaı.
2 Ağustos 2026
Yapay Zeka Yasası tamamen geçerli hale geldi. Uyumluluk yükümlülükleri, yüksek riskli sistemler de dahil olmak üzere tüm yapay zeka risk kategorilerinde geçerlidir.
2 Ağustos 2027
Düzenlemeye tabi ürünlere gömülü yüksek riskli yapay zeka sistemleri, AB Yapay Zeka Yasası gerekliliklerine tamamen uygun olmalıdır.
Bu aşamalı yaklaşımın amacı, inovasyonu yasal kesinlik ile dengelemek ve kuruluşların yapay zeka riskine dayalı yönetişim, teknik korumalar ve gözetim mekanizmalarını aşamalı olarak uygulamalarına olanak tanımaktır.
Yapay zeka (AI), girdi verilerini tanımlayarak ve sıralayarak insan bilişsel yeteneklerini taklit eden bir bilgisayar bilimi alanıdır. Bu zeka, programlanan iş akışlarına dayanabilir veya makine öğrenimi ile oluşturulabilir.
Makine öğreniminde, eğitim verileri yapay zekaya kalıpları tanımayı ve tahminlerde bulunmayı öğretmek için kullanılır. Yapay Zeka Yasası, yapay zeka sistemini değişen düzeylerde otonomi ile çalışan ve tahminler, içerik, öneriler veya kararlar gibi çıktılar üreten makine tabanlı bir sistem olarak tanımlar.
Yapay Zeka Yasası kapsamındaki yapay zeka sistemlerine örnek olarak duygu tanıma, yüz tanıma, aday seçimi, adalet yönetimi, sağlık hizmetleri (ör. semptom analizi), müşteri hizmetleri, sohbet robotları ve üretken yapay zeka sayılabilir.
ChatGPT gibi üretken yapay zeka, makine öğrenimi ve büyük dil modellerini (LLM'ler) kullanarak girdi verilerine dayalı olarak bağımsız olarak sonuçlar üreten yapay zeka sistemlerini ifade eder. Bu sistemler hata yapabilir ve 'halisünasyonlar' görebilir; bu da olası ancak yanlış beyanlar ortaya çıkarır.
Kişisel verileri işleyen yapay zekâ sistemlerinin kullanımı, GDPR’ye uygun olmalı ve veri kaybını önleme tedbirlerini içermelidir. İhlaller için uygulanabilecek para cezaları, küresel yıllık cironun %4’üne veya 20 milyon avroya kadar ulaşabilir.
Şirketler, yasal işlemeyi sağlamalı, veri minimizasyonuna, doğruluğuna ve gizliliğine saygı göstermeli ve bilgi yükümlülüklerini yerine getirmelidir.
Yasal etkileri olan otomatik kararlar, insan takdirini içermelidir. Şifreleme ve takma ad verme gibi teknik ve kurumsal önlemler (TOM) çok önemlidir.
Yüksek riskli işleme için bir veri koruma etki değerlendirmesi gereklidir.
Ticari sırlar, yasa dışı edinime ve ifşaya karşı korunmalıdır. Gereklilikler arasında gizlilik önlemleri, erişim kısıtlamaları ve NDA'lar yer alır.
Yapay zeka sistemleri, eğitim verileri ve çıktılar ticari sır teşkil edebilir. Şirketler, açıklama risklerinden kaçınmak için girdi kullanımını düzenlemeli ve üçüncü taraf şartlarını incelemelidir.
Telif hakkı sorunları, yapay zeka sistemlerinin hem giriş hem de çıkış taraflarında ortaya çıkar. Eğitim için korunan içeriğin kullanımı yasal inceleme altındadır.
Mevcut mevzuata göre yapay zekâ tarafından oluşturulan eserler, insan ürünü olarak kabul edilmedikleri için telif hakkı korumasından yararlanamaz. Bu, söz konusu çıktının kamuya açık olduğu anlamına gelir.
AB Yapay Zeka Yasası, kuruluşun merkezi nerede olursa olsun, AB pazarını etkileyen yapay zeka sistemlerinin geliştirilmesi, dağıtımı veya kullanımında yer alan kuruluşlar için geniş anlamda geçerlidir.
Sorumlu taraflar şunları içerir:
Kuruluşlar içinde sorumluluk genellikle şunlardan oluşur:
Yasa, bu tarafları para cezaları, pazar kısıtlamaları ve yapay zeka sistemlerinin neden olduğu uyumsuzluk veya zarara karşı sorumluluk maruziyeti dahil olmak üzere yaptırım mekanizmaları yoluyla sorumlu tutar.
AB Yapay Zeka Yasası, Birleşik Krallık artık Avrupa Birliği'nin bir parçası olmadığından Birleşik Krallık'ta doğrudan geçerli değildir. Ancak, Birleşik Krallık merkezli kuruluşlar, AB içinde kullanılan veya AB bireylerini etkileyen yapay zeka sistemlerini geliştirir, satar veya kullanırlarsa yine de etkilenebilir.
Bu gibi durumlarda, Birleşik Krallık şirketlerinin sınır ötesi mevzuat olarak AB Yapay Zeka Yasasına uyması gerekebilir. Bu, özellikle düzenlenmiş veya yüksek riskli kullanım durumlarında uluslararası olarak faaliyet gösteren veya AB pazarlarına hizmet veren Birleşik Krallık kuruluşları için geçerli olan AB Yapay Zeka Yasası gerekliliklerine uyum sağlar.
Şirketler, aşağıdakilere odaklanarak üçüncü taraf yapay zeka sistemi şartlarını incelemelidir:
Geçerli yasa ve yargı yetkisi
Eğitim için girdilerin depolanması ve kullanılması
Çıktı hakları
Telif hakkı taleplerine karşı tazminat
Garanti ve sorumluluk sınırlamaları
Dahili yapay zeka yönergeleri, çalışanların yapay zeka sistemlerini kullanımını düzenlemeye yardımcı olur. Bunlar şunları içerebilir:
Yapay zeka sistemlerinin açıklamaları ve izinleri
Giriş ve çıkış işleme talimatları
Gizlilik ve veri koruma uyumu
Siber güvenlik önlemleri ve şeffaflık yükümlülükleri
AB Yapay Zeka Yasası büyük ölçüde 2 Ağustos 2026'dan itibaren geçerli olacak ve yapay zeka kullanan şirketler tarafından uygulanması gerekiyor. Yapay zeka sağlayıcıları ve dağıtımcılarını risk tabanlı bir yaklaşımla düzenler: Toplumsal zarar riski ne kadar yüksekse kurallar da o kadar katı olur.
Kişisel verileri yapay zeka sistemlerini kullanarak işlerken GDPR'ye uymak zorunludur.
Yapay zeka sistemleri, yetkisiz erişime ve siber saldırılara karşı korunmalıdır.
Yapay zeka sistemleri kullanılırken ticari sırlar korunmalıdır.
Hem girdi hem de çıktı taraflarındaki telif hakkı sorunları yasal inceleme altındadır.
Şirketler, yapay zekanın neden olduğu ürün ve hizmetlerdeki kusurlardan sorumludur.
Üçüncü taraf yapay zeka sistemlerinin kullanım koşulları dikkatle incelenmelidir.
Çalışanlar arasındaki yapay zeka okuryazarlığı, şirket içi kılavuzlar aracılığıyla teşvik edilmelidir.
AB Yapay Zeka Yasasına uymak, kuralları anlamaktan daha fazlası anlamına gelir. Bu, yapay zeka sistemlerinizde aktif yönetişim, risk izleme ve net hesap verebilirlik gerektirir. Kurumlar, telif hakkı ve sorumluluktan kullanım koşullarına ve iç yönergelere kadar, yapay zeka dağıtımının her yönünün değişen yasal standartlara uygun olmasını sağlamalıdır.
Bunu desteklemek için şirketler, güvenlik açıklarını belirlemenize, yapay zeka ile ilgili riskleri yönetmenize ve dijital operasyonlarınızda güveni korumanıza yardımcı olmak için tasarlanan Trend Micro'nun Siber Risk Maruz Kalma Yönetimi platformunu kullanarak uyumluluğu basitleştiren ve siber risklere maruz kalmayı azaltan gelişmiş araçlardan yararlanabilir.
Fernando Cardoso, Trend Micro’da Ürün Yönetimi Başkan Yardımcısıdır ve yapay zekâ ile bulutun sürekli gelişen dünyasına odaklanmaktadır. Kariyerine Ağ ve Satış Mühendisi olarak başlayan Fernando, veri merkezleri, bulut, DevOps ve siber güvenlik alanlarında yetkinliğini geliştirmiştir. Bu alanlar, hâlâ tutkusunun kaynağını oluşturmaktadır.
AB Yapay Zeka Yasası, güvenlik, şeffaflık ve temel hak korumasını sağlamak için yapay zeka sistemlerini düzenleyen bir düzenlemedir.
AB Yapay Zeka Yasası, tüm AB üye ülkelerinde 2026 yılına kadar beklenen tam uygulama ile 2024 yılında yürürlüğe girmiştir.
AB Yapay Zeka Yasası, Avrupa Birliği pazarında faaliyet gösteren veya pazarı hedefleyen yapay zeka sistemlerinin sağlayıcıları, kullanıcıları ve ithalatçıları için geçerlidir.
AB Yapay Zeka Yasası, kapsamlı müzakereler ve paydaş danışmanlıklarından sonra 2024 yılında Avrupa Parlamentosu tarafından kabul edildi.
Buna uymak için, kuruluşlar yapay zeka sistemlerini riske göre sınıflandırmalı, şeffaflığı sağlamalı, uygunluk değerlendirmeleri yapmalı ve belgeleri tutmalıdır.