Birleşik Krallık Baro Konseyi Büyük Dil Modelleri (ChatGPT) Kullanım Kılavuzu

Okuma Süresi: 4 Dakika

İngiltere Baro Konseyi Büyük Dil Modelleri (Chat GPT) Kullanım Kılavuzu

Birleşik Krallık Baro Konseyi tarafından başta ChatGPT olmak üzere büyük dil [ Large Language Models (LLM)]  modellerinin avukatlar tarafından kullanımına ilişkin yol gösteri bir rehber yayınladı[1]. İlgili rehberde avukatların gelişen teknolojiye uyum sağlayarak bu teknolojiden mahrum kalmaması gerektiğini ancak ilgili teknolojinin kullanımının getirdiği risklere karşı tedbirli olunmasının önemi açıklanmıştır. Ayrıca büyük dil modellerinin taşıdığı riskler de ayrı başlıklarda değerlendirilmiştir.

LLM Nedir?

LLM büyük veri kümelerinden elde edilen bilgilere dayalı olarak metni ve diğer içerik biçimlerini tanıyabilen, özetleyebilen, tercüme edebilen, çıkarım yapabilen ve yeni içerikler oluşturabilen bir derin öğrenme algoritması olarak tanımlanabilir[2].

Rehberde LLM’lerin ne olduğu açıklanırken, ne olmadığından yola çıkılmıştır. Buna göre LLM geleneksel bir araştırma metodu değildir, araştırmalar için aracıdır. Çıktı olarak verilen verilerin içeriğini analiz etmeden, düşünmeden kullanıcısına sunar.

Rehber LLM’leri; akıllı telefonlarda sohbet kısmında yazılan kelimeye uygun olarak sonraki kelimenin önerildiği algoritmalara benzetmektedir. LLM’ler öncelikle bir metin üzerinde eğitilmekte sonrasında ise maruz kaldığı eğitime uygun şekilde sıralı metin oluşturmaktadır. LLM’lerin henüz çok yeni teknolojiler olması ve bu sebeple yeterince test edilmediği ise unutulmaması gereken bir noktadır.

LLM’lerle İlgili Temel Riskler

Birleşik Krallık Baro Konseyi temel riskleri beş ana başlığa ayırmış bulunmaktadır. Bu başlıklar, antropomorfizm; halüsinasyonlar; bilgi bozukluğu; eğitim verilerinde önyargı; hatalar ve gizli eğitim verileri, şeklindedir.

  1. Antropomorfizm, genel kabul gören tanımıyla, insana özgü niteliklerin insan dışı varlıklara atfedilmesini olarak ifade edilmektedir. LLM’lerin risklerinden biri söz konusu algoritmaların insana özgü nitelikleri taşıyacağı şekilde tasarlanmasıdır. Algoritmaların antropomorfik nitelik taşıması için tasarlanan mekanizmalardan biri antropomorfik bir dil kullanılarak gerçekleştirilmeye çalışılmasıdır.
  2. Halisünasyonlar, LLM’lerin halüsiyonlara sahip olduğu kabul gören bir gerçektir. LLM halüsinasyonu, eğitim verilerindeki kaynak-referans farklılığı, jailbreak ipuçlarından yararlanma, eksik veya çelişkili veri kümelerine güvenme, aşırı uyum ve modelin gerçek doğruluktan ziyade kalıplara dayalı tahmin etme eğilimi gibi faktörlerin bir kombinasyonundan kaynaklanmaktadır.
  3. Bilgi bozukluğu, LLM’lerin eğitimde birçok açık kaynak kullanılmaktadır. Ve söz konusu açık kaynaklarda yer alan bilgilerin doğruluğu, güncelliği her zaman test edilmemektedir. ChatGPT gibi bir LLM’in eğitilmesinde kullanılan veri boyutu göz önünde bulundurulduğu verilerin hepsinin doğru, güncel olduğu iddiasında bulunulamayacaktır.

“Burada medyatik olarak da dikkat çekmiş bir olaydan örnek vermek gerekmektedir, zira incelediğimiz Rehber’de de aynı örnek yer almaktadır Geçtiğimiz yıl Newyork barosuna kayıtlı bir avukatın yer aldığı Mata v. Avianca davasında, savunmasında ChatGPT’den yardım alan avukatın hatalı veriler sebebiyle başına gelen elim olaydır. Savunmasını hazırlayan Newyork’lu avukat ChatGPT’ye başvurarak vekil olarak yer aldığı davaya sunmak için emsal mahkeme kararları istemiştir. ChatGPT ise çıktı olarak kendisine birkaç adet emsal mahkeme kararı bulmuştur. ChatGPT’ye güvenen avukat söz konusu mahkeme kararlarını diğer veri tabanlarında araştırmaksızın mahkemeye sunmuştur. İlgili mahkeme kararlarının karşı tarafın avukatı tarafından araştırılmasına rağmen bulunulamaması sonucu bu kararların ChatGPT tarafından uydurulduğu ortaya çıkmıştır. Her ne kadar Newyork’lu avukatın kasıtsız bir eylemi olmasa da yılların emeğiyle ortaya koyulan itibarı zedeleniştir. Bu sebeple avukatlar tarafından kullanılan yapay zeka çıktılarının mutlaka denetlenmesi gerekmektedir.”

4. Eğitim verilerinde önyargı, LLM’lerin kendilerine eğitilmesi için yüklenen büyük veriler ile çalıştığı yukarı açıklanmıştır. Bu verilerin birçoğu açık kaynak niteliği taşımaktadır ve doğal olarak üretildikleri insanların taşıdıkları önyargıları taşımaktadırlar. Bu sebeple LLM’ler tarafından oluşturulan çıktılarda dünyada yer edinmiş önyargılar sürülecektir. Yapay zeka tabanlı araçların çoğu, örneğin ırk ve cinsiyete dayalı uygunsuz önyargılar içermektedir. Her ne kadar ChatGPT’nin geliştiricileri bu hususlara yönelik önlemler almaya çalışmış olsalar da, bu tedbirlerin ne kadar etkili olduğu henüz net değildir. Tabii ki, LLM’in belirli şekillerde oynanması ve manipüle edilmesinin de mümkün olması bir diğer temel risktir.

5. Hatalar ve gizli eğitim verileri, LLM’ler kendilerini geliştirmek için kullanıcıları tarafından girilen verileri kullanmaktadırlar. Bir kullanıcının sisteme yazdığı her şey yazılımı eğitmek için kullanılır ve gelecekteki sonuçlarda kendisini kelimesi kelimesine tekrarlanmış şekilde bulabilir. Bu açıkça sorunlu bir durumdur sadece sisteme girilen materyalin yanlış olması değil, aynı zamanda sisteme girilen verinin gizli olması durumunda da meydana gelebilecek hukuki ve cezai yükümlülükler söz konusu olabilecektir (Bu husus aşağıda detaylı olarak incelenecektir.)

Uygulamada Yapay Zeka LLM’leri Kullanılırken Dikkat Edilecek Noktalar

Birleşik Kralık Baro Konseyi tarafından yapay zeka LLM’Leri kullanılırken dikkat edilmesi gereken noktalar, olası halüsinasyonlar ve önyargılar, Kara Kutu Sendromu: Açıklanabilirlik eksikliği , Yasal Meslek Ayrıcalığına (LPP), Gizli Bilgi Ve Verilere Saygı Göstermek Koruma Uyumluluğu, Fikri Mülkiyet (IP) İhlali Ve Marka İlişkisi olmak üzere dört ana başlıkta ele alınmıştır.

Halisünasyonlar ve olası önyargılar yukarıda detaylı olarak açıklanmıştır. Zira incelediğimiz Rehber’de de Newyork’lu avukat örneği üzerinde durulmuştur.

Rehber’de kara kutu sendromu olarak belirtilen husus ise LLM’lerin iç yapılarının anlaşılmasının zorluğu olarak açıklanabilir. Kara kutu sendromu karar alma süreçlerinin ve çıktılarının net olarak açıklamalarının bulunmamasıdır. Özellikle bazı algoritmaların ‘tescilli’ olması sebebiyle yazılımlarının gizli olması durumunda LLM’in karar mekanizması bir avukat için tamamen muğlaktır. Muğlak olan bir şeyin yorumlanması ise mümkün görünmemektedir.

Kişisel veriler birçok ülkede sıkı kurallar çerçevesinde korunmaktadır. Yukarıda açıklandığı üzere bir LLM, kullanıcısı tarafından kendisine girilen veriler ile eğitilmeye devam etmektedir. Yani sizin tarafınızdan girilen bir veri, aynı LLM’i kullanan bir başka kullanıcıya çıktı olarak verilebilmektedir. Bu durumda yasal olarak herhangi bir bilgi ve belgenin LLM ile paylaşılmaması önem arz etmektedir. Avukatların ayrıca ilgili veri koruma yasalarına da uymaları gerekecektir. Kullanıcı sistemden gelen istemlere yanıt olarak asla herhangi bir kişisel veri girmemelidir. Aksi halde kişisel veriyi LLM ile paylaşan kullanıcının disiplin kovuşturması ve/veya yasal sorumlulukla da karşılaşması olası bir durumdur. AB kapsamında AI Act, yapay zeka araçlarının hukuk uygulamalarında belirli kullanımları ‘yüksek riskli’ olarak kategorize edilmiştir.

Fikri mülkiyet hukuku ile LLM’ler arasındaki kesin etkileşim henüz net bir değerlendirmeye tabi tutulmamıştır. Ancak, avukatlar, LLM’ler tarafından üretilen içeriğin fikri hakları ihlal edip etmeyeceğini eleştirel bir şekilde inceleyerek mülkiyet hakları, özellikle de üçüncü taraf telif haklarının ihlal edilip edilmediğini değerlendirmelidirler. ChatGPT’yi eğitmek için büyük miktarda metin verisi olarak kitaplar, makaleler ve diğer yazılı materyaller kullanıldı. Ve bir LLM’in, üretilen içeriğin telif hakkı veya diğer hakları ihlal etmesi bu kapsamda açıkça mümkündür. Zira daha önce yayınlanmış materyallerdeki fikri mülkiyet hakları kapsamında üretken yapay zekaya karşı çeşitli fikri haklar kapsamında talep sahiplerine, yasadışı kopyalama ve işleme iddiasıyla suç duyurusunda bulunulmuştur.

Sonuç

LLM’lerin sorumsuzca kullanımı sert ve utanç verici sonuçlara yol açabilir, mesleki ihmal, sözleşme ihlali, güven ihlali iddiaları da dahil olmak üzere, hakaret, veri koruma ihlalleri, fikri mülkiyet haklarının ihlali ve itibar zedelenmesinin yanı sıra mesleki kuralların ihlali ve görevler, disiplin cezası ve yaptırımlara yol açabilecektir.

LLM’lerin kullanımı için henüz ülkemizde bir düzenleme yer almamakla beraber yakın gelecekte böyle bir düzenlemeye ihtiyaç duyulacağı açıktır. Bu düzenlemeler ilişkin bir örnek vermek gerekirse Kanada eyaleti, avukatların yapay zeka kullanıp kullanmadıklarını ve nasıl kullandıklarını mahkemeye bildirmelerini zorunlu kılan dünyadaki ilk yargı bölgelerinden biri olmuştur[3]. Manitoba King’s Bench Mahkemesi’nin mahkeme sunumlarında yapay zeka kullanımına ilişkin yeni uygulama yönergesi yürürlüğe girmiştir.

Ülkemizde yapay zeka kullanımlarına ilişkin henüz bir düzenleme yer almamaktadır. Birleşik Krallık Baro Konseyi tarafından yayımlanan söz konusu rehberin ülkemizde de meslektaşlarımız tarafından yapay zeka modelleri kullanılması hususunda yol gösterici olacağına inanıyoruz.

Zeynep Ebrar KAYA’nın Dünya’nın İlk Robot Avukatı isimli yazısını okumak için bağlantıya tıklayınız.

Hukuk ve Bilişim Dergisi’nin 13. Sayı’sındaki “Metaverse’te Kişisel Verilerin Korunması” isimli yazıyı bağlantıdan okuyabilirsiniz.

Av. Zeynep Ebrar KAYA

[1] https://www.barcouncilethics.co.uk/wp-content/uploads/2024/01/Considerations-when-using-ChatGPT-and-Generative-AI-Software-based-on-large-language-models-January-2024.pdf (E.T. 17.02.2024)

[2] https://blog.openzeka.com/ai/large-language-model-nedir/ (E.T. 20.02.2024)

[3] https://www.lawgazette.co.uk/news/canadian-judges-demand-to-know-if-ai-used-in-submissions/5116452.article (E.T.18.02.2024)