Yapay Zeka Çağında İnsanı Korumak: İnsan Odaklı Düzenlemelerin Kritik Önemi

Okuma Süresi: 4 Dakika

Yapay Zeka Çağında İnsanı Korumak: İnsan Odaklı Düzenlemelerin Kritik Önemi

2024 yılının başlarında, 14 yaşındaki Sewell Setzer Florida’da intihar etti. Bu üzücü olay, insanlara duygusal bağ kurduran yapay zeka destekli sohbet robotlarının olası risklerine dikkat çekmek adina gercekten onemli ve bir o kadar da uzucu bir ornek teskil etti. Character.ai, kullanıcıların dijital karakterlerle bağ kurmasını sağlayan bir yapay zeka platformu ve Sewell’in intiharinda rol oynayan yapay zeka destekli sohbet sisteminin bagli oldugu sirket, Sewell’in şirketin sunduğu özelleştirilebilir bir robotla “takıntılı” hale geldiği belirtiliyor.[1] Sewell’in annesi Megan Garcia, Character.ai şirketine karşı ihmalkar davrandıkları, ölümüne sebep oldukları ve dürüst olmayan ticari uygulamalar kullandıkları gerekçesiyle sivil mahkemede dava açtı.[2] Mahkeme belgelerine göre, Sewell gün boyu ve gece boyunca yapay zeka ile konuşarak hızla duygusal olarak ona bağımlı hale geldi ve bu durum onun üzüntüsünü daha da derinleştirdi. Annesi, sohbet robotunun Sewell’in olumsuz ve zararlı düşüncelerine olan takıntısını beslediğini söylüyor. Hatta ona intihar planı olup olmadığını sorduğunu ve bu davranışını caydırmadan onunla bu konuda konuştuğunu belirtiyor.

Diger devletler gibi, Amerika Birleşik Devletleri de hala yapay zeka için standartlarını geliştirme sürecinde olduğundan, Sewell’in durumuna benzer vakalarla ilgili net cevaplar düzenlemeler nezdinde acıkca bulunmamaktadır. Öte yandan, Beyaz Saray Bilim ve Teknoloji Politikası Ofisi (OSTP) tarafından hazırlanan Yapay Zeka Haklar Bildirgesi, güvenli, şeffaf ve insan odaklı yapay zeka için bir dizi temel kural sunmaktadır. Yapay zekanın insanların zihinsel sağlığını riske atmamasını sağlamak amacıyla Bildirge, kullanım öncesinde test yapılması, risklerin sürekli izlenmesi ve üçüncü taraf değerlendirmelerinin gerçekleştirilmesi gibi önlemler alınmasını önermektedir.[3] Daha spesifik olmak gerekirse, bu vaka, yapay zeka mühendislerinin bireylerin güvenliğini sağlama konusundaki sorumlulukları ve yapay zekanın bireylerin duygularıyla yoğun bir şekilde etkileşime girdiği durumlarda daha sağlam güvenlik önlemlerine duyulan ihtiyaçla ilgili önemli sorunları gündeme getirmektedir.[4]

Sadece bir yıl önce, Belçika’da benzer bir trajedi yaşandı; bir adamın yenilikçi bir yapay zeka sohbet robotuyla yaptığı bir dizi hararetli konuşmanın ardından intihar ettiği bildirildi.[5] Görünüşe göre, robotla tek taraflı ve yakın bir ilişki geliştirmiş ve onu sorunlarını anlayan bir dost olarak görmeye baslamasi, guncel trajik olaya benzer bir duruma sahip oldugu dusunulebilir. Raporlara göre, konuşmalar manipülatif bir hale gelmiş ve bu durum onun ruh sağlığı sorunlarını daha da derinleştirerek intihar kararına katkıda bulunmuş olabilir.[6] Olayın ardından birçok kişi, parasosyal yapay zekanın ne kadar tehlikeli olduğunu tartıştı. Parasosyal yapay zeka, insanların genellikle tek taraflı olan yoğun duygusal bağlar kurabileceği yapay zeka sistemlerini tanımlayan bir terimdir. Farkli alanlarda ve ulkelerde bulunan uzmanlar tarafından yayımlanan yapay zeka ve etik uzmanlarından oluşan bir açık mektup, manipülatif yapay zekanın risklerini vurguladı ve duygusal olarak hassas kullanıcılar için yeterli güvenlik önlemlerinin olmamasını eleştirdi.[7]

Yazarlar, yapay zeka şirketlerinin duygusal bağlanmayı teşvik eden dijital varlıklar yaratmaktan kaçınma sorumluluğuna sahip olduğunu ve yapay zeka ile etkileşimlerde şeffaflık ve net sınırlar sağlanması gerektiğini savundular. Ayrıca, yarı-terapötik roller üstlenen sohbet robotlarının duygusal bağımlılık ve manipülasyonu önlemek için sıkı bir denetime tabi tutulması gerektiğini vurguladılar. Bir katılımcının sözleriyle, “gerçekçi etkileşimlere duygusal tepki vermek, istemesek bile insan doğamızın bir parçasıdır.” Bu, yapay zeka sohbet robotlarının, özellikle samimiyet veya empatiyi gerçek anlamda sahip olmadan taklit ettiklerinde, ortaya çıkardığı benzersiz riskleri gözler önüne sermektedir.[8]

Bu genel kuralların yanı sıra, Avrupa’daki spesifik vakalar, yapay zekanın olası psikolojik etkileri konusundaki endişelerin arttığını göstermiştir. Bu durum, düzenleyicilerin özellikle çocuklar ve diğer savunmasız gruplar söz konusu olduğunda yapay zekanın zihinsel sağlık risklerine daha fazla dikkat ettiğini ortaya koymaktadır.[9] Avrupa hukuku, GDPR, AI Act, DSA gibi yapay zeka sistemlerinin insanların zihinsel sağlığını nasıl etkilediğini kontrol etmek için kullanılabilecek birçok araca sahiptir. Ancak, özellikle ticari olmayan ortamlarda bu araçların ne kadar etkili olduğu ve uygulamada nasil ilerleyecegi henüz net değildir. Yapay zeka ticari amaçlarla kullanılmıyorsa, insanların duygusal ve zihinsel sağlığını tam anlamıyla korumak için mevcut kuralların değiştirilmesi veya ek düzenlemeler yapılması gerekebilir. Yapay zeka sistemleri geliştikçe ve insanların hayatlarına daha fazla entegre oldukça bu boşlukların doldurulması gerekecektir.

Yapay zekanın artan karmaşıklığı ve oluşturduğu risklere yanıt olarak, Avrupa Birliği 2024 yılında AI Act’i yürürlüğe koymuştur.[10] Bu düzenleme, özellikle yüksek riskli senaryolarda kullanılan yapay zeka sistemleri için katı yönergeler belirlemektedir. Ancak, özellikle mal veya hizmet satışı gibi ticari amaçlarla kullanılan yapay zeka sistemlerine odaklanmaktadır. Bu nedenle, AI Act’in, yapay zeka sohbet robotlarının insanların parasosyal bağlantılar kurmasına yardımcı olduğu durumlar gibi, doğrudan ticari bir amacın olmadığı durumlara nasıl uygulanacağı belirsizdir. Yapay zekanın ekonomik bir neden olmadan insanların duygusal veya zihinsel sağlığını etkilediği bu gibi durumlarda, yasa ticari olmayan zararlara karşı tam bir koruma sağlayamayabilir.[11]

Duygusal olarak etkileşim kurabilen yapay zeka ile ilgili yakın zamanda gerçekleşen ölümler, bu alanda koruyucu yasalar oluşturmanın ne kadar önemli olduğunu göstermektedir. Amerika Birleşik Devletleri henüz tüm kullanıcılar için zorunlu kılınan yönergeler belirlememiştir. Ancak, Avrupa Birliği’nin Yapay Zeka Yasası (AI Act) ve ALTAI çerçevesi, yapay zeka ile ilişkili tehlikeleri ele almak için mükemmel stratejiler sunmaktadır.[12]

ABD’deki genç bir çocuğun ölümüyle sonuçlanan bu korkunç olay, yapay zekanın oluşturduğu duygusal tehlikelerle başa çıkma ihtiyacının aciliyetini gözler önüne sermektedir. Yapay zekanın insan ilişkilerini giderek daha fazla şekillendirdiği bir gelecekte, duygusal ve zihinsel sağlığın korunmasına öncelik vermeliyiz. Bu trajik olay ve Belçika’daki benzeri, güçlü, insan odaklı kısıtlamaların ne kadar gerekli olduğunu göstermektedir. Yapay zeka giderek daha akıllı ve günlük yaşamımıza daha entegre hale geldikçe, en savunmasız bireylerimizi korumak için sorumlu yapay zeka uygulamalarına, şeffaflığa ve hesap verebilirliğe yönelik küresel bir taahhüt hayati önem taşımaktadır. AI Act ve diğer Avrupa düzenlemeleri umut vaat etse de, yapay zekanın insanların zihinsel sağlığını veya seçim özgürlüğünü tehlikeye atmadan hayatlarını iyileştirdiğinden emin olmamız için kat etmemiz gereken uzun bir yol var.

Yazarlar:

Abdullah Yerebakan, LL.M

CIPP-E/M/US | Yapay Zeka Uyumluluk ve Yönetim Görevlisi | Hukuk ve Teknoloji
Utrecht Üniversitesi – Hollanda

Salih Tarhan,  LL.M

Yapay Zekâ  | Dijital Sürdürülebilirlik | Hukuk ve Teknoloji

ABD’de faaliyet gösteren hukuk bürolarının yapay zekâ ve diğer yeni teknolojilere uyumlu olarak dijital dönüşümlerini yönetmektedir. New York ve New jersey merkezli Onal Gallant hukuk bürosunda görev yapmaktadır.

[1] https://eu.usatoday.com/story/news/nation/2024/10/23/sewell-setzer-iii/75814524007/

[2] https://www.techpolicy.press/breaking-down-the-lawsuit-against-characterai-over-teens-suicide/

[3] https://www.whitehouse.gov/ostp/ai-bill-of-rights/

[4] Díaz-Rodríguez, N., Del Ser, J., Coeckelbergh, M., de Prado, M. L., Herrera-Viedma, E., & Herrera, F. (2023). Connecting the dots in trustworthy Artificial Intelligence: From AI principles, ethics, and key requirements to responsible AI systems and regulation. Information Fusion, 99, 101896.

[5] https://www.belganewsagency.eu/we-will-live-as-one-in-heaven-belgian-man-dies-of-suicide-following-chatbot-exchanges

[6] https://incidentdatabase.ai/cite/505/

[7] https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai

[8] Ibid.

[9] https://blog.oup.com/2024/05/human-vulnerability-in-the-eu-artificial-intelligence-act/

[10] https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

[11] High-Level Expert Group on Artificial Intelligence. (2019). ETHICS GUIDELINES FOR TRUSTWORTHY AI. In INDEPENDENT HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE SET UP BY THE EUROPEAN COMMISSIONhttps://www.europarl.europa.eu/cmsdata/196377/AI%20HLEG_Ethics%20Guidelines%20for%20Trustworthy%20AI.pdf

Stahl, B. C., Rodrigues, R., Santiago, N., & Macnish, K. (2022). A European Agency for Artificial Intelligence: Protecting fundamental rights and ethical values. Computer Law & Security Review45, 105661.

[12] https://op.europa.eu/en/publication-detail/-/publication/73552fcd-f7c2-11ea-991b-01aa75ed71a1