ChatGPT: Hak İhlalleri ile Teknolojik Gelişmeler Arasında Gri Alan
Giriş
ChatGPT, OpenAI tarafından geliştirilen büyük dil modelidir. İnsan diline yakın seviyede metin üretmek için derin öğrenme teknikleri ve yapay sinir ağlarına dayanan bir yapay zeka sistemidir.[1]
Uzun metinler hazırlayıp sohbet havasında sorulan soruları cevaplayabilen ChatGPT kimi hallerde verdiği cevaplardaki hataları dahi kabul edebilir. Python gibi programlama dillerinde kod yazabilir, önceden hazırlanmış bir kodu saniyeler içinde iyileştirebilir. ChatGPT-4, Mart 2023'te kullanıma sunulan bir üst model olarak problem çözme ve fotoğraf işleme gibi alanlarda önceki modellere kıyasen daha yüksek performans sergiler.[2]
Bu gibi yapay zeka modellerinin üretkenliği artırması, yepyeni arama motoru mimarileri oluşturması, sağlık ve finans alanlarında maliyetleri düşürmesi beklenmektedir.[3] OpenAI ile Google ve Meta gibi rakiplerinin bu alanda sınır tanımayan çalışmalarını takip etmek heyecan verse de anılan dil modelleri temel hak ve hürriyetler bakımından önemli endişeleri beraberinde getirir.
ChatGPT'nin Taşıdığı Riskler
Büyük dil modelleri "üretici yapay zeka" teknolojisinin bir parçasıdır. Bu teknolojide modeller çıktılarını erişebildikleri eğitim verilerine göre oluşturur.[4] Bu veriler telif hakkıyla korunan eserler olabileceği gibi gizli, hassas, ayrımcı veya şiddet içerikli veriler de olabilir. Dolayısıyla ChatGPT gibi sistemlere yüklenen veriler, dil modelinin eğitim materyaline dönüşür. Sonraki aşamalarda dil modelinin cevaplayacağı farklı sorular için kaynak olarak kullanılır.
Yapay zeka modellerinin eğitimi için inanılmaz boyutlarda veri toplama ve işleme faaliyeti yürütülür. Günümüzde bu büyük çaplı veri toplama ve işleme faaliyeti yeterli hukuki gerekçe gösterilmeden ve şeffaflıktan uzak yöntemlerle tamamlanır.[5] Dahası sisteme yüklenen verilerin kolaylıkla ve derhal silinmesi mümkün değildir. Anılan verilerin OpenAI şirketinin geliştirdiği diğer teknolojiler ile paylaşılması ihtimal dahilindedir.[6] Bu ve benzeri unsurlar nedeniyle ChatGPT GDPR gibi kişisel verilerin korunması mevzuatlarını açıkça ihlal eder.[7]
ChatGPT’nin kendisine yöneltilen sorulara verdiği yanıtlarda hatalara rastlanır. Bu durum veri işleme faaliyetleri sonunda varılan sonuçların güvenilirliğini kötü etkiler. Bu gibi modellerin yaygın kullanımı, bir metnin insan veya yapay zeka ürünü olduğunun ayırt edilmesine engel olarak kamuyu yanıltabilir.[8] Metnin gerçek mi sahte (deepfake) mi olduğunun tespitini zorlaştırabilir.[9] Toplum genelinde bilgi kirliliği ve manipülasyonu tetikleyebilir. Bu durum medya, eğitim ve siyaset gibi alanlarda gerçeklik algısının bozulmasına yol açabilir.
ChatGPT'nin ileri seviyede metin yazma ve sosyal mühendislik özelliği, siber güvenlik bakımından da önemli tehditleri beraberinde getirir. Europol'ün konuyla ilgili raporu, ChatGPT’nin kişiselleştirilmiş dolandırıcılık faaliyetlerini kolaylaştırdığını vurgular.[10] Konuşma tarzı taklidi ile son derece gerçekçi metinler üretebildiğinden kurbanların yakınlarıyla iletişimde olduklarına inanmalarını sağlayabilir. Kısa sürede kod yazması ve var olan kodu iyileştirebilmesi, çok az teknik bilgiye sahip olan suçluların dahi siber saldırılar için kötü amaçlı yazılım geliştirilmesini kolaylaştırabilir.
Yapay zeka teknolojisi ürünlerine dair etik kaygılar azımsanmayacak boyuttadır.[11] Yapay zeka modelleri, teknoloji şirketlerinin erişilebildiği verilerle eğitilir. Bu veriler ışığında sınırlı bir değerlendirme kabiliyeti geliştirir. Anılan verilerin ağırlıklı olarak belirli etnik, kültürel, dini gruplara ait olması yapay zeka çıktıları bakımından çeşitlilik ve kapsayıcılık gibi konularda kaygılar doğurur.[12] ChatGPT geliştiricileri modelin nefret suçu ve ayrımcılığa yol açan sonuçlar vermesini engellemek için çeşitli teknik önlemler üzerinde çalışır. Ancak güncel teknolojide farklı kelime gruplarının kullanılması yoluyla teknik önlemlerin aşılabildiği ve etik açıdan kabul edilemez sonuçlara varan çıktılar alınabildiği görülür.
ChatGPT’nin doğurduğu endişelerin bir diğer boyutu, yanıtlarında eser sahiplerinin fikri haklarının ihlal edilmesidir. Yapay zekanın sorumluluk rejimi ile arka planda süregelen teknolojinin açıklanabilirliği dil modelleri bakımından sorgulanan meselelerdendir.[13] Yapay sinir ağları ve modellerin iç çalışma prensipleri son derece karmaşıktır. Dil modellerinin günlük hayata etkisi gün be gün artarken, teknoloji şirketlerinin ve uygulayıcıların hesap verebilirliği ve zarardan sorumluluğu düzenleyici kurumların yakın zamanda netleştirmesi gereken konulardır.
ChatGPT gibi dil modellerinin toplumsal düzeyde doğurması öngörülen etkilerden bir diğeri çeşitli meslek gruplarının değişmesi veya ortadan kalkmasıdır. Çeviri ve yazılım geliştirme gibi alanlarda saniyeler içinde sonuç veren teknoloji, ilerleyen yıllarda bambaşka seviyelerde otomasyona hizmet edecektir.[14]
ChatGPT'ye Düzenleyiciler ve Özel Sektörden Gelen Tepkiler
Bu makalenin kaleme alındığı sırada, ChatGPT gibi dil modellerinin toplumda yarattığı rahatsızlık hiç olmadığı kadar yüksek seviyeye ulaştı.
Future of Life Enstitüsü, kamuya açık bir mektup yayınlayarak insanla rekabet edebilen seviyede yapay zeka geliştirmenin toplumda doğuracağı olumsuz etkiye ve yürürlükteki güvenlik mekanizmalarının yetersizliğine vurgu yaptı. Enstitü, yapay zeka geliştirme çalışmalarına en az altı ay ara verilmesi konusunda çağrıda bulundu. Mektup, birçok akademisyen ve Steve Wozniak ve Elon Musk gibi tanınmış teknoloji şirketi yöneticilerince imzalandı.[15]
Mart 2023 sonunda, İtalyan Veri Koruma Kurulu, veri ihlali endişeleriyle ChatGPT'nin İtalya’daki faaliyetlerini geçici olarak durdurdu.[16] Kurul, yapay zeka algoritmalarını eğitmek amacıyla büyük boyutta kişisel veri toplanması ve işlenmesinin herhangi bir yasal dayanağı olmadığını ve faaliyetlerin şeffaflıktan uzak olduğunu belirtti. Ayrıca, dil modelinin yanlış çıktılar vermesinin hatalı veri işleme faaliyetine yol açması, 13 yaş altı çocukların ChatGPT’yi kullanmasına etkin biçimde engel olacak bir mekanizmanın yokluğu gibi konulara da değindi. OpenAI şirketinin İtalya'da faaliyetlerine devam edebilmesi için Nisan 2023 sonuna kadar İtalyan Veri Koruma Kurulu tarafından veri güvenliği bakımından sağlanması beklenen standartlara ulaşması gerekiyor.
İspanyol ve Fransız veri koruma makamları ChatGPT'nin olası veri ihlallerini incelemek üzere soruşturmalar başlatırken Avrupa Veri Koruma Kurulu da Avrupa Birliği üye ülkeleri genelinde konuya ilişkin iş birliği için ChatGPT görev gücü oluşturdu.[17]
Bu esnada özel sektör de kendi önlemlerini almaya başladı. Bazı Samsung çalışanlarının ChatGPT'yi Samsung’un kaynak kodunun iyileştirilmesinde kullandığı tespit edildi. Bu olay şirket çalışanlarının bu gibi teknolojilerin taşıdığı riskler konusunda eğitilmesinin önemini ortaya koydu. Verizon, Amazon, Bank of America Corp, Goldman Sachs, Citigroup Inc, Deutsche Bank AG gibi büyük kurumlar ChatGPT'nin işyerinde kullanımını yasaklarken, bazı şirketler dil modelinin güvenli kullanımı için şirket-içi politikalar hazırlamaya başladı.
Sonuç
ChatGPT günlük hayatta pek çok alanda faydalı bir araç gibi görünüyor. Bu teknolojinin büyük fırsatlar yaratması, üretkenliği artırması muhtemel. Bununla birlikte, kullanıcıların bu gibi yapay zeka teknolojilerini bilinçli kullanması, risklerinin farkında olması, yeterli güvenlik önlemleri alınana kadar dil modellerini hassas verilerle beslemekten kaçınması önemli.
ChatGPT, veri güvenliği bakımından şeffaflıktan ve yasal zeminden uzak. Kullanıcılar dil modelinde açıkça “opt-out” seçeneğini işaretlemedikçe, sohbet robotuna sağlanan tüm veriler dil modelinin eğitimi için işleniyor. Aynı verilerin bambaşka kullanıcıların dil modeline yönelttiği sorulara verdiği cevaplarda yer alması da muhtemel.
Sohbet robotu halihazırda kendisine sorulan sorulara yanlış cevaplar verebildiğinden ChatGPT’nin farklı alanlarda yaygın şekilde kullanımı, toplumsal düzeyde bilgi kirliliği ve manipülasyona yol açabilir. Kullanıcılar bir çıktının gerçek mi yoksa sahte mi (deepfake) olduğunu ayırt edemeyebilir. Bunlara ek olarak ChatGPT’nin metin üretme ve yazılım yeteneği göz önüne alındığında, siber güvenlik açısından da önemli tehditler doğurabileceği öngörülüyor.
ChatGPT geliştiricileri çeşitli güvenlik önlemleri üzerinde çalışsa da yapay zeka teknolojisi önemli etik kaygılar doğuruyor. Erişebildiği verilerin işlenmesiyle eğitilen dil modelleri, sınırlı bir değerlendirme kabiliyeti geliştirdiğinden ChatGPT ürünlerinin ayrımcılık etkenleri barındırması da öngörülen risklerden bir diğeri.
- OpenAI 2023, ChatGPT-4, erişim için: Introducing ChatGPT (openai.com).
- Europol (2023), Tech Watch Flash ChatGPT: The Impact of Large Language Models on Law Enforcement, 27.03. 2023, (“Europol ChatGPT Raporu”) erişim için: ChatGPT - the impact of Large Language Models on Law Enforcement | Europol (europa.eu).
- Tambiama Madiega, European Parliamentary Research Service, Digital Issues in Focus, “General-Purpose Artifical Intelligence”, 31.03.2023, erişim için: General-purpose artificial intelligence | Epthinktank | European Parliament.
- OECD (2023), "AI Language Models: Technological, Socio-Economic and Policy Considerations", OECD Digital Economy Papers, No. 352, OECD Publishing, Paris, (“OECD AI Report”), s. 10, erişim için: AI language models: Technological, socio-economic and policy considerations | en | OECD.
- Information Commissioner’s Office, The Alan Turing Institute, “Explaining Decisions Made with AI”, p. 10, erişim için: https://ico.org.uk/for-organisations/guide-to-data-protection/key-dp-themes/explaining-decisions-made-with-artificial-intelligence/.
- OECD Yapay Zeka Raporu, s. 30.
- Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (“GDPR”) OJ L 119, 4.5.2016, s. 1–88.
- OECD Yapay Zeka Raporu, s. 33.
- Europol ChatGPT Raporu, s. 11.
- Europol ChatGPT Raporu, s. 7.
- OECD AI Raporu, s. 30.
- Tambiama Madiega, European Parliamentary Research Service, Digital Issues in Focus, “General-Purpose Artifical Intelligence”, 31.03.2023, erişim için: General-purpose artificial intelligence | Epthinktank | European Parliament.
- OECD Yapay Zeka Raporu, s. 36.
- OECD Yapay Zeka Raporu, s. 39.
- The Future of Life Institute, Pause Giant AI Experiments: An Open Letter, erişim için: Pause Giant AI Experiments: An Open Letter - Future of Life Institute.
- İtalyan Kişisel Verilerin Korunması Kurumu kararı, tarih: 31.03.2023, erişim için: Intelligenza artificiale: il Garante blocca ChatGPT. Raccolta illecita di... - Garante Privacy.
- Avrupa Veri Koruma Kurulu basın duyurusu, tarih: 13.04.2023, erişim için: EDPB resolves dispute on transfers by Meta and creates task force on Chat GPT | European Data Protection Board (europa.eu).
Bu makalenin tüm hakları saklıdır. Kaynak gösterilmeksizin veya Erdem & Erdem’in yazılı izni alınmaksızın bu makale kullanılamaz, çoğaltılamaz, kopyalanamaz, yayımlanamaz, dağıtılamaz veya başka bir suretle yayılamaz. Kaynak gösterilmeksizin veya Erdem & Erdem’in yazılı izni alınmaksızın oluşturulan içerikler takip edilmekte olup, hak ihlalinin tespiti halinde yasal yollara başvurulacaktır.