
Yapay Zekâ Uygulamalarında Hukuki Gelişmeler: 2025’e Kısa Bir Bakış
Yapay zekâ teknolojilerinin sosyal, ekonomik ve kurumsal yapılara giderek daha fazla entegre olmasıyla birlikte, dünya genelindeki hukuk sistemleri de bu teknolojilerin doğurduğu yeni riskleri, sorumlulukları ve hakları düzenleme yönünde hızla evrilmektedir. 2025 yılı itibarıyla, pek çok ülke yapay zekâ teknolojilerinin gelişimi ve kullanımıyla ilgili hukuki çerçeveyi şekillendirecek mevzuatları ve hukuki düzenlemeleri yürürlüğe koydu.
Yapay zekâ teknolojilerinde karşımıza çıkan hukuksal düzenlemeler ülkeden ülkeye farklılık gösterebilmektedir. Aşağıda bazı ülkelerin regülasyonlarında yaşanan önemli gelişmelere yer verilmiştir:
Avrupa Birliği: Yapay Zekâ Tüzüğü
Yapay Zekâ Tüzüğü (“Tüzük”), dünyadaki ilk bağlayıcı ve kapsamlı yasal düzenleme olarak kabul edilmektedir. Avrupa Komisyonu risk temelli yaklaşımla hareket ederek, yapay zekâ (“YZ”) sistemlerini risk düzeylerine göre (kabul edilemez, yüksek, sınırlı ve asgari risk) sınıflandırmakta ve bu sınıflara göre farklı yükümlülükler getirmektedir.
1 Ağustos 2024 Tüzüğün yürürlüğe giriş tarihi olarak kabul edilmektedir. Bu tarihte, Tüzüğün hiçbir şartı geçerli olmayıp düzenlemeler; zaman içinde kademeli olarak uygulanmaya başlamıştır/başlayacaktır.
- Kabul edilemez riskli YZ sistemleri: Temel hakları ihlal ettiği, Avrupa Birliği değerlerine aykırı olduğu için kullanılması kabul edilemez tüm YZ sistemlerini içermektedir.
- Bir kişinin bilinçli karar verme yeteneğini önemli ölçüde bozarak kişinin bilincinin ötesinde bilinçaltı teknikleri veya kasıtlı olarak manipülatif veya aldatıcı teknikler kullanan bir yapay zekâ sisteminin piyasaya sürülmesi, hizmete sokulması veya kullanılması,
- Kamu ve özel amaçlar için sosyal puanlama,
- İnsanların biyometrik tanımlanması ve kategorize edilmesi,
- Kolluk faaliyeti amacıyla kamuya açık alanlarda 'gerçek zamanlı' uzaktan biyometrik tanımlama sistemlerinin kesinlikle gerekli olmadıkça kullanılması da yasaklanmıştır.
- Yüksek riskli YZ sistemleri: Güvenliği veya temel hakları olumsuz etkileyen YZ sistemleri yüksek riskli olarak değerlendirilerek ve iki kategoriye ayrılmaktadır:
- ABnin ürün güvenliği mevzuatı kapsamına giren ürünlerde kullanılan YZ sistemleri.
- Birlik uyum mevzuatı uyarınca ürünün piyasaya sürülmesi veya hizmete sunulması amacıyla bir üçüncü taraf uygunluk değerlendirmesinden geçmesi gereken YZ sistemleri.
Örneğin, ilgili Birlik hukuku veya ulusal hukuk kapsamında kullanımına izin verildiği ölçüde:
- Uzaktan biyometrik tanımlama sistemleri,
- Gerçek kişilerin eğitim ve mesleki eğitim kurumlarına erişimini veya kabulünü belirlemek veya atamak için kullanılması amaçlanan YZ sistemleri,
- Bir seçimin veya referandumun sonucunu veya gerçek kişilerin seçimlerde veya referandumlarda oylarını kullanırken oy verme davranışlarını etkilemek için kullanılması amaçlanan YZ sistemleri,
- İstihdamda kullanılan YZ sistemleri,
yüksek riskli YZ sistemleri olarak değerlendirilmiştir.
Tüzükte yüksek riskli YZ sistemleri için hukuki gerekliliklere yer verilmiştir.
- Yüksek riskli YZ sistemleri ile ilgili olarak bir risk yönetim sistemi oluşturulmalı, uygulanmalı, belgelenmeli ve sürdürülmelidir.
- Yüksek riskli YZ sistemleri kullanıldığında kalite kriterlerini karşılayan eğitim, doğrulama ve test veri setleri temelinde geliştirilecektir.
- Yüksek riskli bir YZ sisteminin teknik dokümantasyonu piyasaya sürülmeden veya hizmete alınmadan önce hazırlanmalı ve güncel tutulmalıdır.
- Yüksek riskli YZ sistemleri olayları (“log”) otomatik olarak kaydetmelidir.
- Yüksek riskli YZ sistemleri, dağıtıcıların sistemin çıktılarını yorumlayabilmeleri ve uygun şekilde kullanabilmeleri için işleyişlerinin yeterince şeffaf olmasını sağlayacak, kullanıcıların bir YZ sistemiyle etkileşime girdikleri konusunda bilgilendirilmelerini sağlayacak şekilde tasarlanacak ve geliştirilecektir. (örneğin, gerçek kişiler etkileşime girdikleri aracın bir YZ sistemi olduğunu bilmelidir)
- Yüksek riskli YZ sisteminin kullanımda olduğu süre boyunca sistem, kişiler tarafından etkin bir şekilde denetlenebilecek şekilde tasarlanmalı ve geliştirilmelidir.
- Yüksek riskli YZ sistemleri doğruluk, sağlamlık ve siber güvenlik düzeyine ulaşacak şekilde tasarlanmalı ve geliştirilmeli, bu açılardan tutarlı bir performans göstermelidir.
Tüzüğün 3.bölümünde yüksek riskli YZ sistemlerinin sağlayıcıları ve dağıtıcıları ile diğer tarafların yükümlülüklerini düzenlemektedir.
Özetle yüksek riskli sistemler—örneğin altyapı, istihdam veya kolluk kuvvetlerinde kullanılan YZ sistemleri—teknik dokümantasyon, kayıt tutma yükümlülüğü, şeffaflık ve veri yönetimi gibi sıkı gerekliliklere tabidir.
Genel amaçlı yapay zekâ (GPAI) modelleri ise ve ABdeki birçok yapay zekâ sisteminin temelini oluşturmakta; çok çeşitli görevleri yerine getirebilmekte, bazı modelleri ise sistemik riskler taşıyabilmektedir. Güvenilir bir ortam sağlamak adına Tüzükte bu tür model sağlayıcıları için şeffaflık ve telif haklarına yönelik kurallar yer almaktadır. Tüzüğün GPAI ile ilgili kuralları Ağustos 2025ten itibaren yürürlüğe girmiş olup, sağlayıcıların modellerini 2 Ağustos 2027 tarihine kadar Yapay Zekâ Yasına uyumlu hale getirilmesi gerekmektedir.
Cezalar: Üye Devletler, Tüzükte belirtilen hüküm ve koşullara uygun olarak, işletmeciler tarafından Tüzüğün ihlal edilmesi halinde uygulanabilecek yaptırımları belirlemeleri konusunda yükümlü kılınmıştır.
Tüzüğün 5.maddesindeyasaklanan YZ sistemlerinin kullanılması halinde; 35.000.000 Euroya kadar para cezası veya bir önceki mali yılda dünya çapındaki toplam yıllık cironun %7sine denk gelen miktardan hangisi daha yüksekse o idari para cezası uygulanacaktır.
5.maddedesayılan ihlaller haricinde Tüzükte belirtilen koşullara aykırı olarak YZ sistemlerinin kullanılması halinde; 15.000.000 Euroya kadar para cezası veya bir önceki mali yılda dünya çapındaki toplam yıllık cironun %3üne karşılık gelen miktardan hangisi daha yüksekse o idari para cezası uygulanacaktır.
Bir talebe cevaben onaylanmış kuruluşlara ve ulusal yetkili makamlara yanlış, eksik veya yanıltıcı bilgi verilmesi durumunda 7.500.000 Euroya kadar para cezası veya bir önceki mali yıl için dünya çapındaki toplam yıllık cirosunun %1ine karşılık gelen miktarlardan hangisi daha yüksekse o idari para cezası uygulanacaktır.
Bu düzenlemeler, yalnızca riskleri azaltmakla kalmayıp, aynı zamanda hukuki belirlilik sağlayarak inovasyonu da desteklemeyi amaçlamaktadır.
Yönetim ve Uygulama: Avrupa YZ ofisi ve Üye Devletlerin yetkilileri; Tüzüğün uygulanması, denetlenmesi ve yürürlüğe konulmasından sorumlu kılınmıştır. Avrupa Parlamentosu tarafından Haziran 2025te Tüzüğe yönelik uygulama takvimi yayımlanmıştır.
Amerika Birleşik Devletleri: Eyalet Bazlı Adımlar ve “Take It Down Act”
ABDde hâlen federal düzeyde kapsamlı bir YZ yasası bulunmamakla birlikte, eyaletler düzeyinde çeşitli yasal girişimler hız kazanmıştır.
Örneğin Tennessee eyaleti 2024 yılında kabul ettiği ELVIS yasası ile izin alınmadan kişilerin sesini, görüntüsünü ve benzerliğini kullanmayı yasaklamaktadır.
Utah eyaletinde YZ Değişiklikleri Yasası (Senate Bill 149) ile tüketiciyi koruma odaklı bir bakış açısı sergilenmiş; talep halinde metin, ses veya görsel iletişim yoluyla çıktılar oluşturmak için üretken YZ sistemlerinin kullandığının, ayrıca bir bireyin sağlık hizmetini alırken bir sohbet robotuyla iletişim kurduğunun ifşa edilmesi gerektiği düzenlenmektedir. Üstelik bu açıklamanın, son kullanıcıyla herhangi bir sözlü veya yazılı iletişimden önce yapılması gerektiği zorunlu kılınmıştır. Utah, özel sektörde YZ kullanımını düzenleyen ve en kapsamlı ilk ABD eyaleti olarak kabul ediliyor.
Yaygın olarak Colorado Yapay Zekâ Yasası (CAIA) olarak bilinen 24-205 sayılı Senato Tasarısı Colorado eyaleti tarafından onaylanmış olup 2026da yürürlüğe girmesi planlanlanmaktadır. İlgili yasa, Coloradoda istihdam, konut, finansal hizmetler, sigorta ve sağlık hizmetleri gibi alanlarda “yüksek riskli yapay zekâ sistemleri” geliştiricileri veya dağıtıcıları olarak faaliyet gösteren kişilere yöneliktir. CAIA ile, yapay zekâ geliştiricileri ve uygulayıcıları için, bireyleri algoritmik ayrımcılıktan korumak için genel özen görevi de dahil olmak üzere geniş kapsamlı gereklilikler getirmektedir.
Federal düzeyde ise, yakın zamanda “Take It Down Act” adlı yasa kabul etmiştir. Yasa, bireylerin rızası olmaksızın oluşturulan YZ tabanlı müstehcen içeriklerin çevrimiçi ortamlarda yayımlanmasını yasaklamakta, belirli çevrimiçi platformların bu tür tasvirlerin varlığına ilişkin bildirim aldıktan sonra derhal kaldırmasını düzenleyerek, rızasız fotoğraf/video paylaşımı veya paylaşma tehdidi federal suç olarak kabul edilmektedir.
Take It Down Act yasası ile kamuya açık web siteleri, çevrimiçi hizmetler veya uygulamalar olarak tanımlanan kapsam dahilindeki platformlar, mahrem görsel tasvirlerin öznelerinin, öznenin rızası olmadan yayımlanan öznenin de dahil olduğu mahrem bir görsel tasvirin varlığının platforma bildirilebileceği ve kaldırılmasının talep edilebileceği bir sürecin oluşturulması düzenlenmektedir. Yasa ilgili platformların bildirimden sonraki 48 saat içinde rıza dışı görsellerin kaldırılmasını zorunlu kılmaktadır. Özellikle çocukların bu tür içeriklerden korunması amacıyla çıkarılan yasa, YZ teknolojileriyle bağlantılı bireysel hak ihlallerine karşı güçlü bir düzenleyici niteliği taşımaktadır. Düzenlemelere uyulmaması, Federal Ticaret Komisyonu Yasasının (FTCA) ihlali olarak değerlendirilecek ve Federal Ticaret Komisyonu (FTC) yaptırımına tabi olacaktır.
Yasanın yürürlüğe girdiği tarihten itibaren bir yıl içinde, kapsam dahilindeki tüm platformların, bir bireyin (veya bireyin temsilcisinin) rızası olmadan yayınlanan mahrem görsel tasvirini kaldırmasını talep edebileceği prosedürler oluşturması gerekmektedir.
FTC, Eylül 2025 tarihinde başlattığı soruşturmada, tüketici odaklı yapay zekâ destekli sohbet robotları sağlayan yedi şirkete, yapay zekâ teknolojisinin çocuklar ve gençler üzerindeki olası olumsuz etkilerini nasıl ölçtüğü, test ettiği ve izlediği konusunda bilgi talep eden emirler yayınladı. Soruşturma kapsamında, yapay zekâ destekli sohbet robotlarının güvenliği değerlendirilmekte, ürünlerin çocuklar ve gençler tarafından kullanımını ve üzerlerindeki olası olumsuz etkilerini sınırlamak, kullanıcıları ve ebeveynleri YZ ürünleri ile ilgili riskler konusunda bilgilendirmek için şirketler tarafından herhangi bir adım atıp atılmadığı incelenmektedir.
Birleşik Krallık: Telif Hakkı ve Model Eğitimi Tartışmaları
Birleşik Krallıkta doğrudan ve resmi olarak yürürlüğe girmiş bir yasa bulunmamaktadır. Bu durum her ne kadar YZ sistemlerinin gelişimini destekleyerek esnek bir yaklaşım gibi gözükse de bireyleri potansiyel hak ihlalleri ve teknolojik suistimaller karşısında korumasız bırakmaktadır.
Haber kaynaklarına göre YZye ilişkin önerilerin, teknolojiyi ve telif hakkıyla korunan materyallerin kullanımını düzenlemek için kapsamlı bir yasa tasarısı hazırlanması nedeniyle ertelendiği yönünde.
Avustralya: Hukuki Uygulamalarda YZ Kullanımı ve Çalışma Hayatı
Avustralyada henüz bağlayıcı bir YZ yasası bulunmasa da gönüllülük esasına dayalı çalışmalar dikkat çekiyor.
- Örneğin, 2019 yılında yayınlanan Yapay Zekâ Etik İlkeleri OECDnin Yapay Zekâ İlkeleri ile uyumlu, yapay zekanın sorumlu bir şekilde tasarlanması, geliştirilmesi ve uygulanması için sekiz gönüllü ilkeden oluşmaktadır. Avustralya, OECD YZ ilkelerine imza atan ülkelerden biri olarak OECDnin 5 temel YZ ilkesini kabul ederek bunları 8 etik ilkeye dönüştürdü.
- Diğer kuruluşlarla şeffaflık, hesap verebilirlik süreçleri ve yapay zekâ risk yönetimi gibi konuları kapsayan on gönüllü güvenlik önleminden oluşan Gönüllü Yapay Zekâ Güvenlik Standardı ise Avustralyalı kuruluşlara, yapay zekanın faydalarından yararlanırken riskleri azaltmaları için pratik rehberlik sunmaktadır.
Güney Kore:
Güney Korenin Yapay Zekanın Geliştirilmesi ve Güvenin Tesisi Yasasını kabul etmesi, ülkenin yapay zeka politikasının gelişiminde önemli bir dönüm noktası oldu. Yasanın 22 Ocak 2026da yürürlüğe girmesi planlanıyor ve AB Yapay Zekâ Yasasından sonra dünyanın ikinci kapsamlı Yapay Zekâ yasası olması planlanıyor.
Yasanın "yapay zekanın güvenli bir şekilde geliştirilmesi ve güvenin tesis edilmesi için gerekli temel konuları belirleyerek insanların haklarını ve onurunu korumayı, yaşam kalitelerini iyileştirmeyi ve ulusal rekabet gücünü güçlendirmeyi" amaçladığı belirtilmektedir.
Türkiye:
Türkiyede Eylül 2025 itibariyle yapay zekâya özgü bir mevzuat yürürlükte değildir.
Bununla beraber Cumhurbaşkanlığı Dijital Dönüşüm Ofisi Başkanlığı ile Sanayi ve Teknoloji Bakanlığı iş birliğinde ve ilgili tüm paydaşların etkin katılımıyla "Ulusal Yapay Zekâ Stratejisi 2021-2025” hazırlanmış ve kamuoyunun dikkatine sunulmuştur. Buna ek olarak “Ulusal Yapay Zekâ Stratejisi 2024-2025 Eylem Planı” da yayımlanmıştır. Key measures outlined in the Action Plan include:
- Yapay zekâ uzmanlarını yetiştirmek ve alanda istihdamı artırmak;
- Araştırma, girişimcilik ve yenilikçiliği desteklemek;
- Kaliteli veriye ve teknik altyapıya erişim imkânlarını genişletmek;
- Sosyoekonomik uyumu hızlandıracak düzenlemeleri yapmak.
Türkiye Büyük Millet Meclisi (“TBMM”) tarafından “Yapay Zekanın Kazanımlarına Yönelik Atılacak Adımların Belirlenmesi, Bu Alandaki Hukuki Altyapının Oluşturulması ve Yapay Zekâ Kullanımından Kaynaklanan Risklerin Önlenmesine Yönelik Tedbirlerin Belirlenmesi Amacıyla Meclis Araştırma Komisyonu Kurulmasına Dair Karar” 5 Ekim 2024 tarihli Resmî Gazetede yayımlandı.
24.06.2024 tarihinde Yapay Zekâ Kanun Teklifi TBMMye sunuldu. Teklif ile, yapay zekâ teknolojilerinin güvenli, etik ve adil bir şekilde kullanılması, kişisel verilerin korunmasının temini, gizlilik haklarının ihlal edilmesinin önlemesi ile yapay zekâ sistemlerinin geliştirilmesi ve kullanımına yönelik düzenleyici bir çerçevenin oluşturulmasının amaçlandığı belirtilmektedir. Türkiyede henüz “Yapay Zekâ Kanunu” olarak yasalaşmış bir düzenleme bulunmamakta olup, teklif TBMMde ilgili komisyon incelemesindedir.
Küresel Eğilimler:
Son raporlar, 60tan fazla ülkenin, yapay zekâ ile ilgili politika geliştirdiğini söylüyor. Yasaların ve düzenlemelerin çoğu sağlık, iş piyasası, otomatik karar alma, veri gizliliği, deepfake gibi yüksek riskli kullanım alanlarına odaklanmakta ve politikalar; etik ilkeler, risk yönetimi ve algoritmik şeffaflık gibi alanları kapsamaktadır.
Sonuç: Hukuki Çerçeve Belirginleşiyor
YZ teknolojilerinin geldiği noktada hukuki düzenlemeler artık genel etik bildirilerden çıkarak bağlayıcı ve uygulanabilir normlara dönüşmektedir. Avrupada risk temelli yaklaşım, ABDde eyalet bazlı yaklaşım, Birleşik Krallıkta telif hakkı odaklı tartışmalar derken farklı sistemler kendi iç dinamiklerine uygun düzenlemeler geliştirmektedir. Ancak tüm bu yaklaşımlar; insan hakları, veri güvenliği, şeffaflık ve hesap verebilirlik ilkelerinde birleşmektedir.
Hukukçuların bu dinamik alanı yakından takip etmesi ve regülasyonları erken aşamada kavraması, şirketlerin uyum süreçlerini (compliance) etkin biçimde planlaması açısından kritik öneme sahiptir. Öte yandan, yapay zekâ teknolojileri kişisel veriler, mahremiyet ve ifade özgürlüğü gibi temel haklarla doğrudan ilişkili olduğundan, hukukçuların bu teknolojilerin işleyişini anlaması hak ihlallerinin önlenmesi ve adil kullanımın sağlanması için hayati bir gerekliliktir.
Kaynaklar:
https://digital-strategy.ec.europa.eu/en/policies/artificial-intelligence
https://artificialintelligenceact.eu/implementation-timeline/
https://iapp.org/resources/article/eu-ai-act-timeline/
https://www.congress.gov/bill/119th-congress/senate-bill/146/text