Eu Aı Act Hukuki Yansımaları (AB Yapay Zeka Yasası)

Okuma Süresi: 10 Dakika

Riskten Haklara: Eu Aı Act Hukuki Yansımaları

Yapay zekânın toplumsal yaşamın tüm alanlarına nüfuz etmesi, bu teknolojilerin etik, hukuki ve güvenlik boyutlarında ciddi riskler doğurmuştur. Avrupa Birliği, bu riskleri yönetmek ve temel hakları koruma altına almak amacıyla Yapay Zekâ Tüzüğü (AI Act) ile kapsamlı bir düzenleme getirmiştir. Bu tüzük, yalnızca teknik güvenlik standartları belirlemekle kalmayıp, aynı zamanda insan onurunun, özel hayatın gizliliğinin ve ayrımcılık yasağının korunmasını da hedeflemektedir. Bu çalışmada, AI Act’in risk temelli yaklaşımı çerçevesinde belirlenen kategoriler (yasaklanmış uygulamalar, yüksek riskli sistemler, sınırlı riskli uygulamalar ve asgari riskli uygulamalar) ele alınacaktır.

Yasaklanmış Yapay Zeka Uygulamaları

Düzenleme kazuistik olarak yasaklanmış yapay zeka modellerini düzenlemiştir. Söz konusu modellerin yasaklanmasında öncelikli olarak kullanıcının ve kişisel verisi işlenen bireyin güvenliği esas alınmış olup, ticari fayda ikinci planda değerlendirilmiştir.

  1. Bir kişinin veya bir grubun bilinçli bir karar verme yeteneğini önemli ölçüde bozarak davranışlarını maddi olarak çarpıtma amacı veya etkisi ile bir kişinin bilincinin ötesinde bilinçaltı teknikleri veya kasıtlı olarak manipülatif veya aldatıcı teknikler kullanan bir yapay zeka modelinin piyasaya sürülmesi, hizmete sunulması veya kullanılması yasaklanmıştır[1]. Burada amaç ilgili kişinin hayatın olağan akışı içerisinde alınmayacak olan bir kararın yönlendirilerek aldırılmasına mani olmaktır.
  2. Bir gerçek kişinin veya belirli bir grubun yaşı, engelliliği veya belirli bir sosyal veya ekonomik durumu nedeniyle sahip olduğu zayıflıklardan yararlanan bir yapay zeka modelinin, söz konusu kişinin veya bu gruba mensup bir kişinin davranışını, bu kişiye veya başka bir kişiye önemli ölçüde zarar verecek veya vermesi makul ölçüde muhtemel olacak şekilde maddi olarak çarpıtma amacı veya etkisiyle piyasaya sürülmesi, hizmete sunulması veya kullanılması yasaklanmıştır[2].
  3. Gerçek kişilerin veya kişi gruplarının sosyal davranışlarına veya bilinen, çıkarılan veya tahmin edilen kişisel veya kişilik özelliklerine dayalı olarak belirli bir süre boyunca değerlendirilmesi veya sınıflandırılması için yapay zeka modellerinin piyasaya sürülmesi, hizmete sokulması veya kullanılması ve sosyal puanın aşağıdakilerden birine veya her ikisine yol açması yasaklanmıştır:

c.1.verilerin orijinal olarak üretildiği veya toplandığı bağlamlarla ilgisi olmayan sosyal bağlamlarda belirli gerçek kişilerin veya kişi gruplarının zararlı veya olumsuz muameleye tabi tutulması;

c.2.belirli gerçek kişilerin veya kişi gruplarının sosyal davranışları veya ağırlıkları ile gerekçelendirilmemiş veya orantısız zararlı veya olumsuz muameleye tabi tutulması[3].

  1. Bir gerçek kişinin suç işleme riskini değerlendirmek veya tahmin etmek amacıyla, yalnızca bir gerçek kişinin profilinin çıkarılmasına veya kişilik özelliklerinin ve karakteristiklerinin değerlendirilmesine dayalı olarak, gerçek kişilerin risk değerlendirmelerini yapmak yasaklanmıştır[4].
  2. İnternetten veya CCTV (kapalı devre televizyon) görüntülerinden yüz görüntülerinin hedeflenmemiş bir şekilde kazınması yoluyla yüz tanıma veri tabanları oluşturan veya genişleten yapay zeka modelinin kullanılması yasaklanmıştır[5].
  3. Duyguları tanımlayan yapay zeka modelinin kullanımının tıbbi veya güvenlik nedenleriyle piyasaya sürülmesi veya piyasaya sürülmesinin amaçlandığı durumlar hariç olmak üzere, işyeri ve eğitim kurumları alanlarında gerçek bir kişinin duygularını çıkarmak için yapay zeka modelinin piyasaya sürülmesi, bu özel amaç için hizmete sunulması veya kullanılması yasaklanmıştır[6].
  4. Gerçek kişilerin ırklarını, siyasi görüşlerini, sendika üyeliklerini, dini veya felsefi inançlarını, cinsel yaşamlarını veya cinsel yönelimlerini anlamak veya çıkarmak için biyometrik verilerine dayanarak onları tek tek kategorize eden biyometrik kategorizasyon sistemlerinin piyasaya sürülmesi, bu özel amaçla hizmete sunulması veya kullanılması yasaklanmıştır. Bu yasak, görüntüler gibi yasal olarak elde edilmiş biyometrik veri kümelerinin biyometrik verilere dayalı olarak etiketlenmesini veya filtrelenmesini veya biyometrik verilerin kolluk kuvvetleri alanında kategorize edilmesini kapsamaz[7].
  5. Sınırlı ve yetkilendirilmiş durumlar haricinde, kolluk kuvvetlerinin gerçek zamanlı biyometrik tanımlamayı kamuya açık olarak kullanması yasaklanmıştır[8].

Tüzüğün en sert sınıflandırmasını oluşturan yasaklanmış yapay zekâ uygulamaları, bireyin irade özgürlüğünü ortadan kaldıran veya onu bilişsel, duygusal ya da algısal düzeyde yönlendiren sistemleri kapsar. Bu tür uygulamalar, görünürde faydalı bir amaca hizmet ediyor gibi görünseler dahi, insan davranışını kontrol altına alma potansiyelleri nedeniyle, demokratik toplum düzeniyle bağdaşmaz.

AI Act bu noktada, yapay zekânın yalnızca fiziksel değil, psikolojik manipülasyon gücünü de dikkate almıştır. Örneğin, bir bireyin belirli bir ürünü satın almasını sağlamak için onun duygusal zayıflıklarını hedef alan sistemler ya da bir çocuğun oyun oynarken farkında olmadan belirli davranış kalıplarına yönlendirilmesi, artık “tüketici etkileşimi” değil, bilişsel sömürü olarak değerlendirilmektedir. Bu tür sistemlerin yasaklanmasının arkasında, yalnızca veri koruma endişesi değil, insan onurunun dokunulmazlığı ve özgür iradeye saygı ilkesi yer alır.

Bir yapay zekâ sisteminin, kişinin karar alma sürecine bilinçdışı düzeyde müdahale etmesi, rızaya dayalı etkileşim sınırlarını aşar. Çünkü burada birey, kendi kararının oluşum sürecini dahi denetleyemez hâle gelir. Bu durum, AI Act açısından yalnızca etik bir mesele değil, aynı zamanda temel hak ihlali niteliğindedir.

Tüzük ayrıca, gerçek zamanlı uzaktan biyometrik tanıma sistemlerini ,özellikle kamuya açık alanlarda kullanıldığında, yasaklamıştır. Bu sistemlerin potansiyel faydaları (örneğin suç önleme, kayıp kişilerin bulunması) tartışılsa da, pratikte bu teknolojiler sürekli gözetim ve anonimlik hakkının ortadan kalkması riskini doğurur. Bir kamusal alanda herkesin yüz verisinin taranması, artık hedefli bir güvenlik tedbiri değil, genelleştirilmiş bir fişleme mekanizması haline gelir.

Bu tür sistemlerde işlenen veriler, GDPR’ın 9. maddesi kapsamında “özel nitelikli kişisel veriler”dir. Yüz tanıma, parmak izi veya davranışsal biyometri gibi veriler, bireyin kimliğini doğrudan belirleyebildiğinden, bunların işlenmesi açık rıza olmaksızın meşru kabul edilemez. Dahası, kamu otoriteleri dahi “meşru menfaat” veya “kamu güvenliği” gerekçesine sığınarak sınırsız veri işleme yetkisine sahip değildir. Bu noktada GDPR’daki ölçülülük ilkesi devreye girer: amaç ne kadar meşru olursa olsun, kullanılan yöntem temel haklarla orantılı olmalıdır.

AI Act, kamu güvenliği veya ağır suçların önlenmesi gibi istisnai durumlarda sınırlı kullanım izinleri tanısa da, bu istisnalar dar yorumlanmak zorundadır. İstisnanın sürekli hale gelmesi, tüzüğün genel koruma amacını zedeler. Ayrıca bu sistemlerin devreye alınması halinde, veri koruma otoritelerine ön bildirimde bulunulması ve Veri Koruma Etki Analizi yapılması gerekir.

Özetle, yasaklanmış yapay zekâ uygulamaları, yalnızca bireyin özel hayatına müdahale ettikleri için değil, aynı zamanda insan davranışını öngörülebilir, yönlendirilebilir ve kontrol edilebilir bir veri nesnesine dönüştürdükleri için yasaktır. Bu yaklaşım, Avrupa Birliği’nin yalnızca teknik güvenlik değil, etik ve bilişsel özgürlük temelli bir hukuk inşa etme iradesini yansıtmaktadır.

Yüksek Riskli Yapay Zeka Sistemleri

EU AI ACT Article 6’ya göre söz konusu yasa EK-3’te yüksek riskli yapay zeka sistemleri sayılmıştır ancak bunlar kullanım alanlarına göre yüksek riskli kabul edilmektedir. EK-3’te atıfta bulunulan bir yapay zeka sistemi, karar alma sürecinin sonucunu önemli ölçüde etkilememek de dahil olmak üzere, gerçek kişilerin sağlık, güvenlik veya temel haklarına önemli bir zarar riski oluşturmadığı durumlarda yüksek riskli olarak değerlendirilmeyecektir.

EK-3’te yer alan konular şunlardır[9]:

  1. Uzaktan biyometrik tarama sistemleri.
  2. Tıp
  3. Duygu tanıma
  4. Profilleme
  5. Kritik altyapılar
  6. Eğitim
  7. İşe alım
  8. İnsan kaynakları
  9. Göç, iltica
  10. Kolluk kuvvetleri
  11. Temel kamu hizmetlerine erişim
  12. Kredi puanlama sistemleri

Yüksek Riskli Yapay Zeka Sistemlerinde Temel Yükümlülükler

Ek III’te atıfta bulunulan bir yapay zeka modelinin yüksek riskli olmadığını düşünen bir sağlayıcı, bu sistem piyasaya sürülmeden veya hizmete alınmadan önce değerlendirmesini belgeleyecektir.

Yüksek risk taşıyan yapay zekâ modelleri risk yönetimi sisteme oluşturma ve bu sistemi belgelendirme yükümlülüğüne sahiptir. Söz konusu risk yönetimi sisteminde yapay zekâ modelinde sağlık, güvenlik veya temel haklar için oluşturabileceği bilinen ve makul olarak öngörülebilir risklerin tanımlanması ve analizini içermesi gerekmektedir. Makul olarak öngörülebilir yanlış kullanım koşulları altında ortaya çıkabilecek risklerin tahmini ve değerlendirilmesi ve bir risk meydana gelirse alınacak tedbirler listelenmelidir[10]. Yüksek riskli yapay zeka modelleri, en uygun ve hedefe yönelik risk yönetimi önlemlerinin belirlenmesi amacıyla test edilecektir.

Yüksek riskli yapay zeka modellerinde kullanılan verilerin kalitesi ve veri yönetimine ilişkin detaylar EU Artificial Intelligence Act , Article 10/2-5’te atıfta bulunulan kalite kriterlerini karşılayan eğitim, doğrulama ve test veri setleri temelinde geliştirilecektir.

Yüksek riskli bir yapay zeka modelinin teknik dokümantasyonu, bu sistem piyasaya sürülmeden veya hizmete alınmadan önce hazırlanmalı ve güncel tutulmalıdır.

Yüksek riskli yapay zeka modelinin teknik olarak sistemin ömrü boyunca olayların otomatik olarak kaydedilmesine izin vermelidir.

Yüksek riskli yapay zeka modelleri, dağıtıcıların bir sistemin çıktısını yorumlamasını ve uygun şekilde kullanmasını sağlamak için işleyişlerinin yeterince şeffaf olmasını sağlayacak şekilde tasarlanmalı ve geliştirilmelidir.

Yüksek riskli yapay zeka modelleri, uygun insan-makine arayüz araçları da dahil olmak üzere, kullanımda oldukları süre boyunca gerçek kişiler tarafından etkin bir şekilde denetlenebilecek şekilde tasarlanmalı ve geliştirilmelidir.

Yüksek riskli yapay zeka modelleri, uygun bir doğruluk, sağlamlık ve siber güvenlik seviyesine ulaşacak ve yaşam döngüleri boyunca bu açılardan tutarlı bir performans gösterecek şekilde tasarlanmalı ve geliştirilmelidir.

Uygunluk değerlendirmeleri yoluyla uyumluluğun kanıtlanması gerekmektedir.

AI Act’in en kritik bölümünü oluşturan yüksek riskli yapay zekâ sistemleri, doğrudan insan yaşamını, temel hakları veya kamu güvenliğini etkileyen uygulamalardır. Bu kategoriye; eğitim, istihdam, kredi değerlendirmesi, adalet, sağlık, göç yönetimi gibi alanlarda kullanılan sistemler ile enerji, ulaşım ve kamu hizmetleri gibi kritik altyapıların işleyişine müdahale edebilen yapay zekâ çözümleri dâhildir. Bu sistemlerin hatalı veya önyargılı çalışması, bireysel düzeyde mağduriyet yaratmanın ötesinde, toplumsal ölçekte sistematik ayrımcılıklara ve hak ihlallerine yol açabilir. Bu nedenle tüzük, yüksek riskli sistemler bakımından sağlayıcılara yalnızca teknik değil, aynı zamanda etik ve hukuki sorumluluklar da yüklemiştir.

Yüksek riskli sistemlerde sağlayıcılardan öncelikle kapsamlı bir risk yönetimi süreci yürütmeleri beklenir. Bu süreç, yalnızca algoritmanın performansını değil, sistemin bireyler üzerindeki olası psikolojik ve toplumsal etkilerini de kapsamalıdır. Risk değerlendirmesi, yapay zekâ piyasaya sürülmeden önce başlatılmalı ve sistemin ömrü boyunca düzenli olarak güncellenmelidir. Çünkü bir yapay zekâ modeli, zamanla yeni veri setleriyle beslendikçe, başlangıçta tarafsız olan sonuçlarını bile önyargılı hale getirebilir. Bu nedenle tüzük, risk analizinin statik bir belge değil, sürekli işleyen bir mekanizma olmasını öngörür.

Veri kalitesi, bu sistemlerin güvenilirliği bakımından en belirleyici unsurlardan biridir. AI Act, eğitim verilerinin doğru, temsili, eksiksiz ve güncel olmasını şart koşar. Bu ilke, doğrudan GDPR’ın doğruluk (accuracy) ve veri minimizasyonu ilkeleriyle ilişkilidir. Çünkü veri yanlış, eksik ya da tek taraflı olduğunda, sonuçta alınan karar da adil olmaz. Hatalı veya önyargılı verilerin kullanılması yalnızca teknik bir kusur değil, aynı zamanda temel hakların ihlalidir. Örneğin, işe alım süreçlerinde kullanılan bir yapay zekâ sisteminin kadın adayları sistematik biçimde daha düşük puanlarla değerlendirmesi, veri dengesizliğinden kaynaklanan bir ayrımcılık biçimi olup, doğrudan eşitlik ilkesini zedeler. Bu nedenle sağlayıcılar, veri setlerini sürekli olarak adalet testlerinden ve performans analizlerinden geçirmek zorundadır.

AI Act, ayrıca sağlayıcılara detaylı bir teknik dokümantasyon yükümlülüğü getirir. Bu dokümantasyon, sistemin teknik yapısını, algoritmanın işleyişini, kullanılan veri kaynaklarını, test sonuçlarını ve hataya tolerans düzeylerini içermelidir. Bu tür kayıtların amacı yalnızca teknik izlenebilirlik değil, aynı zamanda hukuki hesap verebilirliği sağlamaktır

Yüksek riskli sistemlerde en önemli unsurlardan biri de insan denetiminin korunmasıdır. AI Act, insanın karar alma sürecinden tamamen çıkarıldığı durumları kabul etmez. Nihai karar mekanizmasında insanın bulunması, yalnızca teknik bir gereklilik değil, demokratik bir denetim aracıdır. İnsan denetimi, sistemin verdiği kararlara körü körüne güvenilmesini önler ve hatalı sonuçların zamanında fark edilmesine imkân tanır. Bu husus, GDPR’ın 22. maddesinde düzenlenen “yalnızca otomatik işlemeye dayalı karar alınmama hakkı”yla doğrudan ilişkilidir. Bir bireyin kredi alıp alamayacağı, işe kabul edilip edilmeyeceği ya da sağlık hizmetine erişip erişemeyeceği gibi hayati kararlar, salt bir algoritmanın istatistiksel tahminine bırakılmamalıdır.

Son olarak, yüksek riskli sistemlerin piyasaya sürülmeden önce “doğruluk”, “sağlamlık” ve “güvenilirlik” gibi metriklerle test edilmesi zorunludur. Bu testlerin yalnızca laboratuvar koşullarında değil, gerçek kullanım senaryolarında da yapılması gerekir. Çünkü yapay zekâ sistemleri, laboratuvar ortamında güvenli görünürken, toplumsal bağlamda beklenmedik sonuçlar doğurabilir. AI Act bu nedenle sağlayıcılara, sistemin gerçek dünyadaki davranışlarını izleme ve gerektiğinde düzeltici önlemler alma yükümlülüğü getirmiştir.

Tüm bu yükümlülükler birlikte değerlendirildiğinde, yüksek riskli yapay zekâ sistemleri alanında yalnızca teknik uyumun değil, hukuki farkındalık ve etik sorumluluk bilincinin de geliştirilmesi gerektiği görülür. Zira AI Act’in yaklaşımı, teknolojiyi sınırlamaktan ziyade, onu temel haklarla uyumlu bir çerçevede güvenli kılmayı amaçlar.

Genel Amaçlı Yapay Zeka Modelleri

Genel amaçlı yapay zeka modelleri, piyasadaki konumlarından bağımsız olarak geniş bir görev yelpazesini yetkin biçimde yerine getirebilen, önemli ölçüde genellik niteliği taşıyan ve farklı alt sistemler ile uygulamalara entegre edilebilme kapasitesine sahip modellerdir. AI Act, bu tür modellerin potansiyel risklerine karşı özel düzenlemeler öngörerek şeffaflık, güvenlik ve denetim yükümlülükleri getirmektedir.

Genel amaçlı yapay zeka modeli sağlayıcıları her ne kadar yüksek riskli yapay zeka modeli sağlayıcıları kadar yükümlülüğü sahip olmasa da yasa belirli sorumluluklar atfetmiştir. Buna göre sağlayıcılar yapay zeka sistemlerinin potansiyel risklerini, olası olumsuz etkilerini ve bu etkilerin sistem veya toplum üzerinde yaratabileceği riskleri tanımlayıp değerlendirmesi yapmalıdır. Bu değerlendirmeler neticesinde ortaya çıkan sistematik riskleri azaltmak amacıyla risk yönetimi ve kalite yönetim sistemleri uygulamalıdırlar. Yine sistem kullanıcısı şahısları etkileşimi girdikleri yapay zeka modeli hakkında bilgilendirmeleri gerekmektedir. Üretilen yapay zeka modelini doğruluk, sağlamlık ve siber güvenlik açısından test etmek ve izlemeleri gerekmektedir. Keza düzenlemeye göre sistemik risk taşıyan genel amaçlı AI modelleri, daha kapsamlı test ve raporlama yükümlülüklerine tabidir[11].

Bu kategoride, doğrudan temel hakları etkilemeyen ancak kullanıcı davranışlarını veya kararlarını dolaylı biçimde yönlendirebilen uygulamalardır. Sohbet robotları, dijital asistanlar, öneri sistemleri veya otomatik müşteri destek araçları bu gruba girer. Bu tür sistemlerde asıl amaç, kullanıcının deneyimini kolaylaştırmak olsa da, bilgilendirme ve şeffaflık yükümlülüğü zorunludur. Kullanıcı, karşısındaki varlığın bir yapay zekâ sistemi olduğunu açık biçimde bilmelidir. Aksi hâlde kişi, sistemin insan olduğunu varsayarak rıza dışı davranışlara yönlendirilebilir. AI Act bu nedenle geliştiricilere, sistemin yapay zekâ temelli olduğunu belirtme ve yanıltıcı tasarımlardan kaçınma sorumluluğu yükler. Bu yaklaşım, GDPR’ın “açıklık” ve “adil işleme” ilkeleriyle doğrudan örtüşür.

Sistemik Riskler Taşıyan Genel Amaçlı Yapay Zekâ Modelleri

Adından da anlaşılacağı üzere sistemik riskler taşıyan genel amaçlı yapay zeka modelleri, genel amaçlı yapay zeka modellerine göre yüksek etki kapasitesine sahip, ileri düzey genel amaçlı yapay zeka modelleridir. Yasa bu modelleri iki bentte açıklamıştır . Buna göre sistematik risk taşıyan genel amaçlı yapay zeka modelleri aşağıdakilerden birini sağlamalıdır;

-Uygun teknik araçlar, göstergeler ve kriterler kullanılarak değerlendirilen yüksek etki kapasitelerine sahip olmaları.

-Komisyon veya Bilimsel Panel tarafından sistemik riskler taşıyan genel amaçlı yapay zekâ olarak belirlenmeleri[12].

Yukarıda genel amaçlı yapay zeka modeli sağlayıcılarının yükümlülükleri belirtilmiştir. sistemik riskler taşıyan genel amaçlı yapay zeka modelleri sağlayıcıları bu yükümlülüklere ek olarak; standartlaştırılmış model değerlendirmesi ve saldırganlık testi yapmalıdır. Değerlendirmeler neticesinde ortaya çıkan olası sistematik risklerin hafifletilmesi yönünde çalışmalar gerçekleştirmelidir. Üretilen yapay zeka modellerinin yeterli seviye siber güvenlik ve fiziksel altyapıya sahip olmasının sağlanması yönünde çalışmalar gerçekleştirmeli ve son olarak Yasa m.78 kapsamında sağlanan bilgi veya belge ile ticari sırlar dahil olmak üzere gizlilik gerekliliklerine uyum sağlanmalıdır[13].

Bu kategoride yer alan sistemler, toplum açısından kayda değer bir zarar ihtimali taşımayan, çoğunlukla oyun, eğlence veya basit veri işleme amaçlı yapay zekâ uygulamalarıdır. Bu tür sistemler için yasal zorunluluklar değil, daha çok gönüllü etik standartlar öngörülmüştür. Ancak bu, geliştiricinin özen yükümlülüğünün ortadan kalktığı anlamına gelmez. Her yapay zekâ sistemi, risk seviyesi ne kadar düşük olursa olsun, kullanıcı güvenliğini ve veri gizliliğini gözeten bir tasarım anlayışıyla geliştirilmelidir. Zira yapay zekânın toplumsal kabulü, yalnızca hukuki düzenlemelere değil, geliştiricilerin etik sorumluluk bilincine de bağlıdır.

Şeffaflık Gereklilikleri

Yasa ile belirli yapay zekâ modeli sağlayıcıları ve dağıtıcılarına özel şeffaflık yükümlülükleri getirilmektedir. Bir yapay zekâ modeli; hem şeffaflık gerekliliklerine hem de yüksek riskli yapay zekâ sistemleri veya genel amaçlı yapay zekâ modellerine ilişkin gerekliliklere tabi olabilmektedir.

İlgili düzenleme ile kanun koyucu, yapay zeka modeli kullanıcısı ve/veya sentetik üretimler sonucu kişinin bireysel alanına girilen noktalarda kişileri korumayı amaçlamıştır. Buna göre doğrudan gerçek kişiler ile etkileşimde bulunana yapay zeka modelli sağlayıcıları, kullanıcının bir yapay zeka ile etkileşime girdiğinin farkında olacağı şekilde bir tasarımda bulunmalı. Sentetik ses, görüntü, video veya metin içeriği üreten yapay zeka modeli sağlayıcıları ve genel amaçlı yapay zeka modelleri, çıktılarının makine tarafından okunabilir bir formatta işaretlendiğinden ve yapay zeka tarafından üretildiği veya manipüle edildiği tespit edilebildiğinden emin olmalıdır. Duygu tanıma veya biyometrik kategorizasyon sistemlerinin dağıtıcıları doğal kişileri sistemlerin işlemleri hakkında bilgilendirmelidir. Deepfake üreten veya  kamu yararını ilgilendiren konularda kamuoyunu bilgilendirmek amacıyla metinleri manipüle eden yapay zeka modellerinin dağıtıcıları, ifşa gerekliliklerine uymalıdır[14].

6.SON

Yapay zekâ alanında geliştirilen düzenlemeler, teknoloji ile hukuk arasındaki hassas dengeyi koruma çabasını yansıtmaktadır. AI Act, bu dengenin önleyici ve sistematik yönünü temsil ederken; GDPR, düzeltici ve birey odaklı bir koruma mekanizması olarak işlev görür. Bu iki düzenleme, aslında birbirinin devamı niteliğindedir: biri risklerin ortaya çıkmasını engellerken, diğeri gerçekleşen ihlaller karşısında bireysel hakları güvence altına alır.

Risk temelli yaklaşım, her yapay zekâ sisteminin aynı düzeyde denetim gerektirmediği gerçeğinden hareket eder. Ancak yüksek riskli sistemlerde yalnızca teknik standartlara değil, etik değerlere, insan gözetimine ve veri koruma ilkelerine de sıkı biçimde bağlı kalınmalıdır. Zira teknik uyum tek başına yeterli değildir; hukuki ve ahlaki bilinçle desteklenmediğinde, en gelişmiş algoritmalar dahi toplumsal güveni zedeleyebilir.

Sonuç olarak, yapay zekâ teknolojilerinin güvenli, adil ve insan haklarına saygılı biçimde topluma entegre edilebilmesi; hukuki uyumun, teknik doğrulamanın ve insan merkezli tasarım ilkelerinin birlikte işletilmesine bağlıdır. Gerçek anlamda sürdürülebilir bir dijital gelecek, yalnızca yeniliği değil, aynı zamanda insan onurunu ve toplumsal sorumluluğu da merkeze alan bir yapay zekâ ekosistemiyle mümkündür.

Zeynep Ebrar KAYA’nın Dünya’nın İlk Robot Avukatı isimli yazısını okumak için bağlantıya tıklayınız.

Hukuk ve Bilişim Dergisi’nin 13. Sayı’sındaki “Metaverse’te Kişisel Verilerin Korunması” isimli yazıyı bağlantıdan okuyabilirsiniz.

Yazar: Av.Z.Ebrar KAYA LL.M.

[1] EU Artificial Intelligence Act , Article 5/1-a

[2] EU Artificial Intelligence Act , Article 5/1-b

[3] EU Artificial Intelligence Act , Article 5/1-c

[4] EU Artificial Intelligence Act , Article 5/1-d

[5] EU Artificial Intelligence Act , Article 5/1-e

[6] EU Artificial Intelligence Act , Article 5/1-f

[7] EU Artificial Intelligence Act , Article 5/1-g

[8] EU Artificial Intelligence Act , Article 5/1-h

[9] EU Artificial Intelligence Act , Annex III

[10] EU Artificial Intelligence Act , Article 9/2

[11] EU Artificial Intelligence Act , Article 53

[12] EU Artificial Intelligence Act , Article 51/1

[13] EU Artificial Intelligence Act , Article 55

[14] https://iapp.org/media/pdf/resource_center/eu-ai-act-101-chart.pdf (E.T.01.06.2025)