OECD Yapay Zeka Raporu

Okuma Süresi: 3 Dakika

OECD’nin Yapay Zeka, Veri Yönetişimi ve Mahremiyet Hakkında Oluşturduğu Rapor

26 Haziran 2024 tarihinde Türkiye’nin de bir üyesi olduğu Ekonomik Kalkınma ve İş Birliği Örgütü (Organisation for Economic Co-operation and Development, “OECD”) tarafından “Yapay Zeka, Veri Yönetişimi ve Mahremiyet: Birliktelik ve Uluslararası İş birliği Alanları”[1] adlı rapor yayınlanmıştır. Raporda temel olarak yapay zeka ve mahremiyet arasındaki ilişkinin konu alındığı görülmektedir.

Amaç

Günümüzde ChatGPT ve DALL-E gibi doğal dil üretimi ve metinden görüntü elde etmeye yarayan üretken yapay zeka modelleri çoğalmıştır. Bu modeller konu olarak “insanı” ele almaktadır. İnsanlara yardımcı olma gayesi olduğu gibi bazen onun yerini alması da söz konusu olabilmektedir. Bu yönü sebebiyle yapay zekanın eğitim ve hatta veri toplama aşamasında kişilerle ilişkili bilgilerin kullanılması tercih edilmektedir. Dolayısıyla veri yönetişimi ve kişilerin mahremiyet beklentisi üzerinde birçok riski beraberinde getirmektedir. OECD bu risklere karşılık yapay zekanın gelişmesini engellememek kaydıyla üretim, eğitim ve kullanım aşamalarında ulusal ve uluslararası düzeyde ne tür önlemler alınabileceği konusunda tavsiye niteliğinde bir rapor hazırlamıştır. Aşağıda raporda yer verilen başlıklara kısaca değinilecektir.

Üretken Yapay Zekanın Mahremiyet Üzerinde Taşıdığı Risk

Üretken yapay zeka, eğitildiği test verileri ile veri setleri arasındaki bağlantıyı tespit ederek bir içerik (ses, yazı, görüntü gibi) üretmektedir. Özellikle bir yapay zekanın yaşam döngüsü (AI lifecycle) içerisinde yer alan projeyi belirleme; veri toplama ve işleme; yeni model oluşturma veya var olan modeli yeni proje için adapte etme; test etme, değerlendirme, doğrulama ve kullanıma sunma gibi aşamalarda kişilerin mahremiyeti ve veri yönetişimi konusunda birtakım problemler içermektedir. Örneğin; doğru çıktılar elde etmek için çok fazla verinin işlenmesi, veri minimizasyonu ilkesine aykırılık oluşturmaktadır. Bu verilerin nasıl, nereden elde edildiği ve nasıl kullanıldığı konusunda da bir belirsizlik mevcuttur. Nitekim bu belirsizlik, OECD Mahremiyet Kılavuzu (OECD Privacy Guidelines)’de[2] yer alan açıklık ilkesini de ihlal etmektedir. Bireysel katılım ilkesi olarak kabul edilen kişilerin verilerine erişmeleri, doğrulamaları ve gerektiğinde silinmesini talep etmesi de bu problemin diğer bir yansımasını oluşturmaktadır.

Her ne kadar veri toplama ve eğitim aşamasında mahremiyet ve veri yönetişimine dikkat edilmiş olsa da çıktı olarak üretilen verinin ayrımcılığa, dezenformasyona veya mezenformasyona neden olması mümkündür. Dolayısıyla yapay zekanın halüsinasyon görmesi halinde çıktı sağladığı yeni verilerin de insan haklarını ihlal edilme riskini taşıyabilmektedir. Bir siyasi figür hakkında yapay zeka ile oluşturulan fotoğrafın İnternet kullanıcıları tarafından gerçek sanılarak toplumda bir izdiham oluşturması veyahut işe alımlarda işverenlerce kullanılan yapay zeka modellerinin ırkçı, cinsiyetçi çıkarımlar oluşturarak haksız yere işe girişi engellemesi gibi durumlar buna örnek olarak gösterilebilecektir.

Yapay zekanın ve özellikle üretken yapay zekanın meydana getirdiği risklerin önüne geçmek için OECD’nin de üzerinde çalıştığı mahremiyet artıran teknolojiler (Privacy-Enhancing Technologies “PETs”) geliştirilmektedir. Örneğin; şifreli veri işleme araçları ile verinin şifreli kalması sağlanarak yapay zekanın yaşam döngüsü içerisinde kullanılmaktadır. Böylelikle gerekli izinlere sahip olmadan verinin yapay zeka aktörleri tarafından görülmesi engellenmektedir. Diğer bir yöntem olarak yapay zekanın eğitim ve kullanım aşamalarında işe yarayacak şekilde verinin bir kişiyle ilişkilendirilebilecek parçalarını değiştirme, çıkarma veya “gürültü” eklemek ele alınmıştır. Son olarak kişilerin verileri üzerindeki kontrolünü artırmak amacıyla “makine öğrenimini unutma” (machine unlearning) modellerinin geliştirilmesi örnek olarak verilmiştir. Böylelikle insanlara rızalarını geri çekmeleri, verilerin silinmesi gibi imkanlar sağlamaktadır.

OECD Kurallarının Yapay Zeka ve Mahremiyet Hakkında Uygulanması

2024 yılında güncellenen OECD Yapay Zeka İlkeleri (OECD AI Principles)[3] ile 2013 yılında düzenlenmiş versiyonu çıkarılan Mahremiyet Kılavuzu (OECD Privacy Guidelines) birlikte ele alınarak ulusal ve uluslararası kodifikasyon çalışmalarında kullanılabileceği belirtilmiştir.

Raporda OECD Yapay Zeka İlkeleri’nde yer alan ilkelerin mahremiyet üzerinde değerlendirildiği görülmektedir. Bunlar: (i) kapsayıcı büyüme, sürdürülebilir kalkınma ve refah, (ii) adillik ve mahremiyet dahil olmak üzere hukukun üstünlüğüne, insan haklarına ve demokratik değerlerine saygı, (iii) şeffaflık ve açıklanabilirlik, (iv) dayanıklılık, güvenlik ve emniyet ve (v) hesap verilebilirlik şeklindedir. Bununla beraber adillik, şeffaflık, açıklanabilirlik, mahremiyet ve veri koruma kavramları bakımından yapay zeka ve veri yönetişimin birbirinden farklı yaklaşımları olabileceğine de dikkat çekilmiştir. Her iki alan arasındaki ilişki OECD’nin getirdiği ilkeler ışığında incelenmiş ve hem yapay zekanın gelişmesi hem de veri güvenliğinin sağlanması için alınabilecek aksiyonlar belirtilmiştir.

Tüm gündem yazılarımıza bağlantıdan ulaşabilirsiniz.

Yapay zeka alanındaki “Deep Fake ve Adli Bilişim” isimli yazıyı okumak için bağlantıya tıklayınız.

Yazar: Av. Beste GÖDEN

Kaynakça

OECD, AI, Data Governance And Privacy Synergies And Areas Of International Co-Operation, https://www.oecd-ilibrary.org/deliver/2476b1a4-en.pdf?itemId=%2Fcontent%2Fpaper%2F2476b1a4-en&mimeType=pdf (erişim tarihi: 28.06.2024).

OECD, Recommendation of the Council concerning Guidelines Governing the Protection of Privacy and Transborder Flows of Personal Data, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0188 (erişim tarihi: 28.06.2024).

OECD, Recommendation of the Council on Artificial Intelligence, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 (erişim tarihi: 28.06.2024).

[1] OECD, AI, Data Governance And Privacy Synergies And Areas Of International Co-Operation, https://www.oecd-ilibrary.org/deliver/2476b1a4-en.pdf?itemId=%2Fcontent%2Fpaper%2F2476b1a4-en&mimeType=pdf (erişim tarihi: 28.06.2024).

[2] OECD, Recommendation of the Council concerning Guidelines Governing the Protection of Privacy and Transborder Flows of Personal Data, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0188 (erişim tarihi: 28.06.2024).

[3] OECD, Recommendation of the Council on Artificial Intelligence, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 (erişim tarihi: 28.06.2024).