YAPAY ZEKANIN HUKUKI SORUMLULUĞU

Üretken yapay zekâ ve otonom yazılımların kullanım alanı genişledikçe, bu sistemlerin sebep olduğu bir zarar ortaya çıktığında sorumluluğun kime yükletileceği sorusu daha görünür hale gelmektedir. Zira risk yalnızca hatalı çıktı üretimi değildir; ayrımcılık ihtimali, mahremiyeti zedeleyen içerikler ve kişisel veriler bakımından güvenlik açıkları da aynı başlık altında değerlendirilmektedir. 

Mevcut hukuk düzeninde yapay zekâ, kural olarak hukuki anlamda “kişi” değildir. Bu nedenle irade ve kusur atfıyla doğrudan sorumlu tutulması klasik kategoriler içinde mümkün görülmemektedir. Bununla birlikte zarar gerçekleştiğinde hukuk sorumluluğu boşlukta bırakmaz; değerlendirme, sistemi tasarlayan, eğiten, piyasaya sunan, işleten, güncelleyen ve onu bir hizmetin parçası olarak yaygınlaştıran aktörlere yönelir. Bu yaklaşım, tek bir fail arayışından çok sistemin yaşam döngüsüne odaklanır: tasarım tercihleri, eğitim verisi, risk öngörüsü, güvenlik katmanları, denetim mekanizmaları, bilinen zafiyetlerin giderilmesi ve uyarıların kapsamı sorumluluk analizinin asli unsurlarıdır. 

Güncel olaylar, sorumluluğun neden giderek sağlayıcı ve platformlara yöneldiğini daha somut hale getirmektedir. Örneğin Grok etrafında kamuoyuna yansıyan mahremiyeti zedeleyen içerik üretimi iddiaları sonrasında California Department of Justice tarafından resmî inceleme başlatıldığının duyurulması, tartışmanın yalnızca kullanıcı davranışına indirgenmeyip sağlayıcının güvenlik önlemleri ve risk yönetimi üzerinden de yürütüldüğünü göstermektedir. Benzer şekilde Avrupa Birliği düzeyinde platformların sistematik riskleri azaltma yükümlülükleri kapsamında inceleme yürütüldüğünün haberleşmesi, denetim ve risk azaltma mekanizmalarının sorumluluk analizinde merkezî yer tuttuğunu ortaya koymaktadır. 

Öğretide tek bir model üzerinde uzlaşma bulunmamakla birlikte, en sık başvurulan hat kusura dayalı haksız fiil sorumluluğudur. Bu çerçevede sağlayıcı veya platform öngörülebilir riskleri bildiği hâlde makul önlemleri almamışsa; güvenlik ve denetim mekanizmalarını kurmamış veya etkin işletmemişse; bilinen zafiyetleri gidermemiş, kullanıcıyı yanıltabilecek bir tanıtım yapmış ya da uyarıları yetersiz bırakmışsa, Türk Borçlar Kanunu m.49 kapsamında sorumluluk tartışması gündeme gelebilir. Nitekim anılan hüküm, kusurlu ve hukuka aykırı fiille başkasına zarar verenin bu zararı gidermekle yükümlü olduğunu kabul etmektedir.

Bu noktada tehlike sorumluluğu tartışması devreye girmektedir. Türk Borçlar Kanunu m.71, önemli ölçüde tehlike arz eden bir işletmenin faaliyetinden zarar doğması halinde işletme sahibi ve varsa işletenin müteselsilen sorumluluğunu öngören, kusursuz sorumluluğa yaklaşan bir yapı sunmaktadır. Yapay zekâ sistemlerinin bu kapsama her durumda otomatik biçimde dâhil edileceği söylenemese de yüksek riskli kullanım alanları ve ağır hak ihlali potansiyeli taşıyan sistemler bakımından m.71’in amaçsal yorumla tartışılabileceği görüşü doktrinde yer bulmaktadır. 

Sorumluluğu organizasyon ve denetim üzerinden kuran yaklaşımlar da giderek önem kazanmaktadır. Yapay zekânın işletme süreçlerine gömülü kullanımı arttıkça riskin yalnız kodu yazan kişiye indirgenmesi yerine, sistemi seçen, entegre eden, izleyen, güncelleyen ve çıktılarla işlem tesis eden organizasyona yönelmesi gerektiği savunulmaktadır. Bu noktada Türk Borçlar Kanunu m.66/III’te yer alan “işletmenin çalışma düzeninin zararın doğmasını önlemeye elverişli olması” ölçütü, organizasyon sorumluluğu tartışmalarında dayanak olarak öne çıkmaktadır.

Bu tartışmaların tamamlayıcı boyutu ise ispat yüküdür. Zarar görenin karmaşık bir dijital sistemde hatanın kaynağını tüm teknik ayrıntısıyla ispatlaması her zaman gerçekçi değildir. Bu nedenle bilgi ve belgelere erişimin güçlendirilmesi, karine mekanizmaları ve ispat yükünün belirli hâllerde dengeli biçimde yer değiştirmesi gibi araçların mağdur korunması bakımından işlevsel olabileceği ifade edilmektedir.

Öte yandan öğretide, otonom davranışlardan doğan zararlar bakımından hayvan idare edenin sorumluluğuna benzer bir analojiyle “işleten” ve “fiilî hâkimiyet” eksenini öne çıkaran yaklaşımlara da değinilmektedir. Ayrıca sektör temsilcilerinin, yapay zekâ sistemlerinin belirli bir olgunluk seviyesine ulaştığında kullanıcıların her çıktıyı ayrıca doğrulama refleksinin zayıflayabileceği, bu durumda sorumluluğun ağırlık merkezinin daha fazla sistem işleticilerine ve organizasyon sorumluluğuna kayabileceği yönündeki değerlendirmeleri de dikkat çekmektedir. Güvenilirliğin piyasa standardı hâline geldiği bir düzeyde makul güvenlik beklentisinin yükselmesi, güvenli tasarım, öngörülebilir risklerin azaltılması, denetim ve güncelleme süreçlerinin etkinliği gibi alanlarda sağlayıcı ve platformların sorumluluk alanını daha görünür ve daha ağır hâle getirebilecektir. 

Bu itibarla yapay zekâ sorumluluğu tartışması, teknolojinin olgunlaşmasıyla azalan bir mesele değil; çoğu kez yeniden dağılan bir sorumluluk mimarisine işaret etmektedir. 

Hukuk Desteği

(Lütfen bakınız.)

(Lütfen bakınız.)

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir