Yapay Zeka Hata Yaparsa Kelepçeyi Kime Takacağız?

Geleneksel hukuk sistemimiz “kusur” ilkesine dayanır. Bir kaza varsa, ya sürücü dikkatsizdir ya da yaya kural ihlali yapmıştır. Ancak direksiyonda bir insanın bulunmadığı, kararların saniyede milyonlarca veriyi işleyen algoritmalar tarafından verildiği bir sürücüsüz araç kaza yaptığında, bu kadim terazi sarsılmaya başlar. Ortada cezalandırılacak bir “irade” yoksa, suçlu kimdir?
Bugün itibarıyla dünya genelinde hukuk, yapay zekayı bir “kişi” olarak değil, gelişmiş bir “ürün” olarak kabul ediyor. Bu da bizi “Ürün Sorumluluğu” kavramına götürüyor. Eğer sürücüsüz araç, yazılımdaki bir hata veya sensörlerdeki bir kusur nedeniyle kaza yapmışsa; sorumluluk zinciri yazılımcıdan üretici firmaya kadar uzanır. Ancak burada da bir sorun var: Yapay zeka “öğrenen” bir sistemdir. Üreticinin hiç öngörmediği bir durumu, yapay zekanın kendi deneyimleriyle “yanlış öğrenmesi” sonucu kaza oluşursa ne olacak?
Hukukçular bu çıkmazı aşmak için üç temel senaryo üzerinde duruyor:
1. İşleten ve Üretici Sorumluluğu (Maddi Boyut): Trafik kazalarında asıl olan mağdurun zararının giderilmesidir. Mevcut hukukumuzda aracın sahibi (işleteni), kaza anında araçta olmasa bile doğan zarardan “kusursuz sorumluluk” ilkesi gereği sorumludur. Maddi tazminatı araç sahibi veya sigortası öder, ardından kusuru oranında üretici firmaya rücu eder.
2. Algoritmanın “Tetikleyicisi” Kim? (Ceza Boyutu): Ceza hukuku şahsidir ve bir “suç işleme kastı” arar. Bir robotu hapse atamayacağımıza göre, kaza anında yazılımın güncellemelerini ihmal eden kullanıcı mı, yoksa güvenli olmayan bir algoritmayı piyasaya süren mühendis mi suçludur? Avrupa Birliği’nin üzerinde çalıştığı “Yapay Zeka Yasası”, riskli yapay zeka sistemlerini kategorize ederek bu sorumluluğu netleştirmeyi hedefliyor.
3. “Etik Algoritmalar” ve Kaçınılmaz Seçimler: Sürücüsüz bir aracın önüne iki kişinin çıktığı ve kazanın kaçınılmaz olduğu o meşhur “tramvay ikilemi”nde; yapay zekanın yaşlıyı mı yoksa çocuğu mu seçeceğine dair verilen karar, aslında yazılımcının o algoritmaya yüklediği etik değerdir. Bu durumda hukuk, artık bir kaza davasını değil, bir “etik tasarım hatasını” yargılamaya başlar.
Sonuç olarak; yapay zeka şimdilik hukukun “faili” değil, “eşyası” konumunda. Ancak otonom sistemler karmaşıklaştıkça, belki de gelecekte yapay zekalar için oluşturulmuş özel “elektronik kişilik” statülerini ve zorunlu “AI sigortalarını” konuşacağız. Şimdilik direksiyonu bıraksak da, hukuki sorumluluğu henüz hiçbir algoritmaya devredemiyoruz.













