ChatGPT: Hak İhlalleri ile Teknolojik Gelişmeler Arasında Gri Alan

30.04.2023 Tilbe Birengel

Giriş

ChatGPT, OpenAI tarafından geliştirilen büyük dil modelidir. İnsan diline yakın seviyede metin üretmek için derin öğrenme teknikleri ve yapay sinir ağlarına dayanan bir yapay zeka sistemidir.[1]

Uzun metinler hazırlayıp sohbet havasında sorulan soruları cevaplayabilen ChatGPT kimi hallerde verdiği cevaplardaki hataları dahi kabul edebilir. Python gibi programlama dillerinde kod yazabilir, önceden hazırlanmış bir kodu saniyeler içinde iyileştirebilir. ChatGPT-4, Mart 2023'te kullanıma sunulan bir üst model olarak problem çözme ve fotoğraf işleme gibi alanlarda önceki modellere kıyasen daha yüksek performans sergiler.[2]

Bu gibi yapay zeka modellerinin üretkenliği artırması, yepyeni arama motoru mimarileri oluşturması, sağlık ve finans alanlarında maliyetleri düşürmesi beklenmektedir.[3] OpenAI ile Google ve Meta gibi rakiplerinin bu alanda sınır tanımayan çalışmalarını takip etmek heyecan verse de anılan dil modelleri temel hak ve hürriyetler bakımından önemli endişeleri beraberinde getirir.

ChatGPT: Hak İhlalleri ile Teknolojik Gelişmeler Arasında Gri Alan
% 0

ChatGPT'nin Taşıdığı Riskler

Büyük dil modelleri "üretici yapay zeka" teknolojisinin bir parçasıdır. Bu teknolojide modeller çıktılarını erişebildikleri eğitim verilerine göre oluşturur.[4] Bu veriler telif hakkıyla korunan eserler olabileceği gibi gizli, hassas, ayrımcı veya şiddet içerikli veriler de olabilir. Dolayısıyla ChatGPT gibi sistemlere yüklenen veriler, dil modelinin eğitim materyaline dönüşür. Sonraki aşamalarda dil modelinin cevaplayacağı farklı sorular için kaynak olarak kullanılır.

Yapay zeka modellerinin eğitimi için inanılmaz boyutlarda veri toplama ve işleme faaliyeti yürütülür. Günümüzde bu büyük çaplı veri toplama ve işleme faaliyeti yeterli hukuki gerekçe gösterilmeden ve şeffaflıktan uzak yöntemlerle tamamlanır.[5] Dahası sisteme yüklenen verilerin kolaylıkla ve derhal silinmesi mümkün değildir. Anılan verilerin OpenAI şirketinin geliştirdiği diğer teknolojiler ile paylaşılması ihtimal dahilindedir.[6] Bu ve benzeri unsurlar nedeniyle ChatGPT GDPR gibi kişisel verilerin korunması mevzuatlarını açıkça ihlal eder.[7]

ChatGPT’nin kendisine yöneltilen sorulara verdiği yanıtlarda hatalara rastlanır. Bu durum veri işleme faaliyetleri sonunda varılan sonuçların güvenilirliğini kötü etkiler. Bu gibi modellerin yaygın kullanımı, bir metnin insan veya yapay zeka ürünü olduğunun ayırt edilmesine engel olarak kamuyu yanıltabilir.[8] Metnin gerçek mi sahte (deepfake) mi olduğunun tespitini zorlaştırabilir.[9] Toplum genelinde bilgi kirliliği ve manipülasyonu tetikleyebilir. Bu durum medya, eğitim ve siyaset gibi alanlarda gerçeklik algısının bozulmasına yol açabilir.

ChatGPT'nin ileri seviyede metin yazma ve sosyal mühendislik özelliği, siber güvenlik bakımından da önemli tehditleri beraberinde getirir. Europol'ün konuyla ilgili raporu, ChatGPT’nin kişiselleştirilmiş dolandırıcılık faaliyetlerini kolaylaştırdığını vurgular.[10] Konuşma tarzı taklidi ile son derece gerçekçi metinler üretebildiğinden kurbanların yakınlarıyla iletişimde olduklarına inanmalarını sağlayabilir. Kısa sürede kod yazması ve var olan kodu iyileştirebilmesi, çok az teknik bilgiye sahip olan suçluların dahi siber saldırılar için kötü amaçlı yazılım geliştirilmesini kolaylaştırabilir.

Yapay zeka teknolojisi ürünlerine dair etik kaygılar azımsanmayacak boyuttadır.[11] Yapay zeka modelleri, teknoloji şirketlerinin erişilebildiği verilerle eğitilir. Bu veriler ışığında sınırlı bir değerlendirme kabiliyeti geliştirir. Anılan verilerin ağırlıklı olarak belirli etnik, kültürel, dini gruplara ait olması yapay zeka çıktıları bakımından çeşitlilik ve kapsayıcılık gibi konularda kaygılar doğurur.[12] ChatGPT geliştiricileri modelin nefret suçu ve ayrımcılığa yol açan sonuçlar vermesini engellemek için çeşitli teknik önlemler üzerinde çalışır. Ancak güncel teknolojide farklı kelime gruplarının kullanılması yoluyla teknik önlemlerin aşılabildiği ve etik açıdan kabul edilemez sonuçlara varan çıktılar alınabildiği görülür.

ChatGPT’nin doğurduğu endişelerin bir diğer boyutu, yanıtlarında eser sahiplerinin fikri haklarının ihlal edilmesidir. Yapay zekanın sorumluluk rejimi ile arka planda süregelen teknolojinin açıklanabilirliği dil modelleri bakımından sorgulanan meselelerdendir.[13] Yapay sinir ağları ve modellerin iç çalışma prensipleri son derece karmaşıktır. Dil modellerinin günlük hayata etkisi gün be gün artarken, teknoloji şirketlerinin ve uygulayıcıların hesap verebilirliği ve zarardan sorumluluğu düzenleyici kurumların yakın zamanda netleştirmesi gereken konulardır.

ChatGPT gibi dil modellerinin toplumsal düzeyde doğurması öngörülen etkilerden bir diğeri çeşitli meslek gruplarının değişmesi veya ortadan kalkmasıdır. Çeviri ve yazılım geliştirme gibi alanlarda saniyeler içinde sonuç veren teknoloji, ilerleyen yıllarda bambaşka seviyelerde otomasyona hizmet edecektir.[14]

ChatGPT'ye Düzenleyiciler ve Özel Sektörden Gelen Tepkiler

Bu makalenin kaleme alındığı sırada, ChatGPT gibi dil modellerinin toplumda yarattığı rahatsızlık hiç olmadığı kadar yüksek seviyeye ulaştı.

Future of Life Enstitüsü, kamuya açık bir mektup yayınlayarak insanla rekabet edebilen seviyede yapay zeka geliştirmenin toplumda doğuracağı olumsuz etkiye ve yürürlükteki güvenlik mekanizmalarının yetersizliğine vurgu yaptı. Enstitü, yapay zeka geliştirme çalışmalarına en az altı ay ara verilmesi konusunda çağrıda bulundu. Mektup, birçok akademisyen ve Steve Wozniak ve Elon Musk gibi tanınmış teknoloji şirketi yöneticilerince imzalandı.[15]

Mart 2023 sonunda, İtalyan Veri Koruma Kurulu, veri ihlali endişeleriyle ChatGPT'nin İtalya’daki faaliyetlerini geçici olarak durdurdu.[16] Kurul, yapay zeka algoritmalarını eğitmek amacıyla büyük boyutta kişisel veri toplanması ve işlenmesinin herhangi bir yasal dayanağı olmadığını ve faaliyetlerin şeffaflıktan uzak olduğunu belirtti. Ayrıca, dil modelinin yanlış çıktılar vermesinin hatalı veri işleme faaliyetine yol açması, 13 yaş altı çocukların ChatGPT’yi kullanmasına etkin biçimde engel olacak bir mekanizmanın yokluğu gibi konulara da değindi. OpenAI şirketinin İtalya'da faaliyetlerine devam edebilmesi için Nisan 2023 sonuna kadar İtalyan Veri Koruma Kurulu tarafından veri güvenliği bakımından sağlanması beklenen standartlara ulaşması gerekiyor.

İspanyol ve Fransız veri koruma makamları ChatGPT'nin olası veri ihlallerini incelemek üzere soruşturmalar başlatırken Avrupa Veri Koruma Kurulu da Avrupa Birliği üye ülkeleri genelinde konuya ilişkin iş birliği için ChatGPT görev gücü oluşturdu.[17]

Bu esnada özel sektör de kendi önlemlerini almaya başladı. Bazı Samsung çalışanlarının ChatGPT'yi Samsung’un kaynak kodunun iyileştirilmesinde kullandığı tespit edildi. Bu olay şirket çalışanlarının bu gibi teknolojilerin taşıdığı riskler konusunda eğitilmesinin önemini ortaya koydu. Verizon, Amazon, Bank of America Corp, Goldman Sachs, Citigroup Inc, Deutsche Bank AG gibi büyük kurumlar ChatGPT'nin işyerinde kullanımını yasaklarken, bazı şirketler dil modelinin güvenli kullanımı için şirket-içi politikalar hazırlamaya başladı.

Sonuç

ChatGPT günlük hayatta pek çok alanda faydalı bir araç gibi görünüyor. Bu teknolojinin büyük fırsatlar yaratması, üretkenliği artırması muhtemel. Bununla birlikte, kullanıcıların bu gibi yapay zeka teknolojilerini bilinçli kullanması, risklerinin farkında olması, yeterli güvenlik önlemleri alınana kadar dil modellerini hassas verilerle beslemekten kaçınması önemli.

ChatGPT, veri güvenliği bakımından şeffaflıktan ve yasal zeminden uzak. Kullanıcılar dil modelinde açıkça “opt-out” seçeneğini işaretlemedikçe, sohbet robotuna sağlanan tüm veriler dil modelinin eğitimi için işleniyor. Aynı verilerin bambaşka kullanıcıların dil modeline yönelttiği sorulara verdiği cevaplarda yer alması da muhtemel.

Sohbet robotu halihazırda kendisine sorulan sorulara yanlış cevaplar verebildiğinden ChatGPT’nin farklı alanlarda yaygın şekilde kullanımı, toplumsal düzeyde bilgi kirliliği ve manipülasyona yol açabilir. Kullanıcılar bir çıktının gerçek mi yoksa sahte mi (deepfake) olduğunu ayırt edemeyebilir. Bunlara ek olarak ChatGPT’nin metin üretme ve yazılım yeteneği göz önüne alındığında, siber güvenlik açısından da önemli tehditler doğurabileceği öngörülüyor.

ChatGPT geliştiricileri çeşitli güvenlik önlemleri üzerinde çalışsa da yapay zeka teknolojisi önemli etik kaygılar doğuruyor. Erişebildiği verilerin işlenmesiyle eğitilen dil modelleri, sınırlı bir değerlendirme kabiliyeti geliştirdiğinden ChatGPT ürünlerinin ayrımcılık etkenleri barındırması da öngörülen risklerden bir diğeri.

Kaynakça

Bu makalenin tüm hakları saklıdır. Kaynak gösterilmeksizin veya Erdem & Erdem’in yazılı izni alınmaksızın bu makale kullanılamaz, çoğaltılamaz, kopyalanamaz, yayımlanamaz, dağıtılamaz veya başka bir suretle yayılamaz. Kaynak gösterilmeksizin veya Erdem & Erdem’in yazılı izni alınmaksızın oluşturulan içerikler takip edilmekte olup, hak ihlalinin tespiti halinde yasal yollara başvurulacaktır.

Diğer İçerikler

Yapay Zekâ Çerçeve Sözleşmesi
Hukuk Postası
Yapay Zekâ Çerçeve Sözleşmesi

Yapay Zekâ Çerçeve Sözleşmesi (Çerçeve Sözleşme), Avrupa Konseyi tarafından önerilen ve yakın zamanda imzaya açılan uluslararası bir anlaşmadır . Anılan sözleşme, yapay zekâ sistemlerinin tüm yaşam döngüsünü düzenleyen ilk uluslararası sözleşmedir. Çerçeve Sözleşme, yapay zekâ sistemlerinin insan hakları...

Bilişim Hukuku ve Yapay Zekâ 30.09.2024
Avrupa Birliği Yapay Zekâ Yasası’nın Türkiye’deki Aktörlere Yansımaları
Hukuk Postası
Avrupa Birliği Yapay Zekâ Yasası’nın Türkiye’deki Aktörlere Yansımaları

"Brüksel Etkisi", Avrupa Birliği ("AB") düzenlemelerinin küresel olarak standartları etkilemesi veya belirlemesi olgusunu ifade etmektedir. Nitekim AB önemli bir pazar niteliğinde olduğundan, küresel düzeyde faaliyet gösteren şirketler genellikle birden fazla, farklı yerel yasalara uymak yerine tüm faaliyetlerinde AB...

Bilişim Hukuku ve Yapay Zekâ 31.08.2024
Anayasa Mahkemesi’nin 5651 sayılı İnternet Kanunu’nun Bazı Hükümlerine İlişkin İptal Kararı
Hukuk Postası
Anayasa Mahkemesi’nin 5651 sayılı İnternet Kanunu’nun Bazı Hükümlerine İlişkin İptal Kararı

Anayasa Mahkemesi (“AYM”), 10 Ocak 2024 tarihli ve 32425 sayılı Resmî Gazete’de yayımlanan 11.10.2023 tarihli ve 2020/76 E., 2023/172 K. sayılı kararı ile (“Karar”) 7253 sayılı İnternet Ortamında Yapılan Yayınların Düzenlenmesi ve Bu Yayınlar Yoluyla İşlenen Suçlarla Mücadele Edilmesi Hakkında Kanun’da...

Bilişim Hukuku ve Yapay Zekâ 29.02.2024
Yapay Zekâ Yasası Avrupa Parlamentosu Tarafından Kabul Edildi
Hukuk Postası
Yapay Zekâ Yasası Avrupa Parlamentosu Tarafından Kabul Edildi

Tüm zamanların ilk “Yapay Zekâ Yasası” olarak nitelendirilen ve özellikle ChatGPT, Bard ve Midjourney gibi araçları doğrudan etkileyen kural ve düzenlemeler içeren yasa Avrupa Parlamentosu tarafından 14 Haziran 2023 tarihinde gerçekleşen nihai oylamada oyçokluğuyla kabul edildi. Böylece Avrupa Parlamentosu...

Bilişim Hukuku ve Yapay Zekâ 31.07.2023
Sosyal Ağ Sağlayıcıları Hakkında Son Gelişmeler
Hukuk Postası
Sosyal Ağ Sağlayıcıları Hakkında Son Gelişmeler

Bilgi Teknolojileri ve İletişim Kurulu (“BTK”) 28.03.2023 tarihli ve 2023/DK-İD/119 sayılı kararı ile Sosyal Ağ Sağlayıcı Usul ve Esasları’nı (“Usul ve Esaslar”) kabul etti. Anılan karar, 01.04.2023 tarihli Resmî Gazete’de yayımlandı ve yayımı tarihinde yürürlüğe girdi. 5651 sayılı İnternet Ortamında Yapılan Yayınların...

Bilişim Hukuku ve Yapay Zekâ 31.07.2023
Sosyal Ağ Platformları Yeni Düzenlemelere Uyum Sağladı mı?
Hukuk Postası
Sosyal Ağ Platformları Yeni Düzenlemelere Uyum Sağladı mı?
Bilişim Hukuku ve Yapay Zekâ Ocak 2021
Sosyal Medya Düzenlemesi ile Neler Getirildi?
Hukuk Postası
Sosyal Medya Düzenlemesi ile Neler Getirildi?
Bilişim Hukuku ve Yapay Zekâ Ağustos 2020
5651 Sayılı Kanun Kapsamında İnternet Aktörleri
Hukuk Postası
5651 Sayılı Kanun Kapsamında İnternet Aktörleri
Bilişim Hukuku ve Yapay Zekâ Haziran 2020

Yaratıcı hukuk çözümleri için iletişime geçin.