Hukukta Bir Reform – Yapay Zeka Alanında İlk Düzenleme
Logo



Universal 13 May, 2024 universal

Hukukta Bir Reform – Yapay Zeka Alanında İlk Düzenleme


Avrupa Parlamentosu, OpenAI' ın ChatGPT'si gibi güçlü sistemler de dahil olmak üzere, dünyada yapay zeka kullanımına ilişkin yasal düzenlemeler getiren Avrupa Yapay Zeka Yasası’nı 13 Mart Çarşamba günkü genel kurulda onayladı. Avrupa Birliği (AB) Komisyonu, Avrupa Parlamentosu ve üye ülkelerin daha önce üzerinde uzlaşmaya vardığı düzenleme, 13 Mart Çarşamba günü parlamento genel kurulunda ele alındı. Avrupa Yapay Zeka Yasası, 46’ya karşı 523 üyenin oyuyla kabul edildi. Yeni yasa, AB Resmi Gazetesi’nde yayımlanmasının ardından Mayıs ayından itibaren, 2 yıl içinde aşamalı olarak bütün birlik genelinde yürürlüğe girecek. Kabul edilemez yapay zeka sistemlerine yönelik yasaklar 6 ay sonra, ChatGPT ve Midjourney gibi üretken yapay zeka sistemlerine ilişkin kurallar da önümüzdeki yıl uygulamaya konacak. Yasaya ilişkin nihai kurallar da, yapay zeka uygulamalarının ön yargılı ya da ayrımcı olup olmadığı konusundaki insan hakları testlerinin ardından Mayıs 2026'da yürürlüğe girmiş olacak.

Bu yazımızda Yapay Zeka Yasası’nın kapsam ve amacına değinilerek Risk Bazlı Sınıflandırma teorisi hakkında bilgi verilecek, Yapay Zeka Yasası’nın kimleri bağlayacağı ve Yapay Zeka Yasası’na uyumlanılmaması halinde öngörülen yaptırımlardan kısaca bahsedilecektir.

Yapay Zeka Yasasının Kapsamı ve Amacı

AB’de kabul edilen Yapay Zekâ Yasası, şirketlerin yapay zekâ sistemlerini uyumlu hale getirme ve etik kullanımını sağlama çabalarına odaklanarak inovasyonu teşvik etmeyi amaçlıyor. Güvenli, şeffaf, izlenebilir, ayrımcı olmayan ve çevre dostu yapay zeka sistemleri ile sağlık, güvenlik ve temel hakların korunmasını garanti altına alarak, AB’de güvenilir yapay zekanın geliştirilmesini, yaygınlaştırılmasını ve kullanılmasını destekleyeceği belirtiliyor. Şirketlerin bu yasaya uyum sağlamak için yapay zekâ sistemlerini analiz etmesi ve bir stratejik yol haritası oluşturması kritik önem taşıyor.

Dünyada türünün ilk örneklerinden biri olan Yapay Zeka Yasası, hızla gelişen teknolojiyi risk temelli ve insan odaklı bir yaklaşımla düzenlemeye çalışmaktadır. Üzerinde anlaşılan ve 13.03.2024 tarihinde genel kurulda onaylanan Yapay Zeka Yasasının, veri koruma mevzuatıyla uyumlu hale getirilmesi için daha fazla iyileştirici düzenlemeler de içerdiği ifade edilmektedir. Belirli şeffaflık yükümlülüklerine uyması gereken temel modeller için de özel kurallar üzerinde anlaşmaya varılmıştır. Büyük miktarda veriyle eğitilmiş ve gelişmiş karmaşıklığa, yeteneklere ve ortalamanın çok üzerinde performansa sahip (siber güvenlik ve enerji tüketimi raporlaması da dahil olmak üzere) modeller olan 'yüksek etkili' temel modeller (örneğin, OpenAI'nin GPT'si, Google'ın Gemini'si), daha katı bir rejim takip etmek zorunda kalacak ve bu da sistemik riskleri değer zinciri boyunca yayacaktır.

Risk Bazlı Yaklaşım ve Risk Sınıflarına Bağlanan Yaptırımlar

Yapay Zeka Yasası, yapay zeka sistemlerini potansiyel risklerine göre sınıflandıran ve bulunduğu risk grubuna göre işlem ve yaptırımlara tabii tutan bir yaklaşımı esas alır. Buna göre ; Kabul Edilemez Risk Taşıyan Yapay Zeka Sistemleri (Unacceptable Risk) , Yüksek Riskli Yapay Zeka Sistemleri (High Risk), Sınırlı Risk İçeren Yapay Zeka Sistemleri (Limited Risk) ve Minimum Risk Oluşturan veya Hiç Risk Oluşturmayan Yapay Zeka Sistemleri (Minimal Risk) olmak üzere dört farklı risk sınıflandırmasının mevcut olduğu söylenebilir.

Risk bazlı sınıflandırmada en ağır yükümlülüklere tabii olan sınıf Kabul Edilemez Risk Taşıyan Yapay Zeka Sistemleridir. Yapay zekanın bu kullanımlarındaki risk kabul edilemez olarak görülecek ve bu sistemlerin kullanımı yasaklanacaktır. Bunlar, bireyin hakları ve güvenliği açısından kabul edilemez düzeyde risk taşıdığı kabul edilen uygulamalardır. Bunlar bilişsel davranış manipülasyonu, yüz görüntülerinin internetten veya CCTV görüntülerinden ayrım gözetmeksizin çıkarılması, işyerinde ve eğitim kurumlarında duygu tanıma, kişisel özelliklere ve sosyal davranışa dayalı sosyal puanlama ve biyometrik sınıflandırma sistemleri için hassas nitelikler (cinsel yönelim veya dini inançlar gibi veriler) ve bireylere yönelik bazı öngörücü kolluk uygulamalarıdır. Ancak belirtmek gerekir ki, biyometrik tanımlama sistemleri ilke olarak yasaklanacak olsa da bu tür sistemlerin kamuya açık alanlarda kolluk kuvvetleri tarafından kullanılmasına yönelik bazı dar istisnalar üzerinde anlaşmaya varılmıştır. Buna göre, bu sistemler yalnızca önceden resmi izin alındıktan sonra ve kesin olarak tanımlanmış bir suç listesinin kovuşturulması için kullanılabilecektir.

Yüksek riskli olarak sınıflandırılan yapay zeka sistemleri ise topluma, çevreye veya bireylerin sağlık, güvenlik ve temel haklarına önemli ölçüde zarar verme riski doğurma ihtimali olan sistemlerdir. Bu tür yüksek riskli yapay zeka sistemlerine; vatandaşların hayatını ve sağlığını riske atabilecek ulaşım gibi kritik altyapılarda kullanılan, su, gaz ve elektrik sektörleri gibi altyapılar, tıbbi cihazlar, eğitim kurumlarına erişim ve kabul için adayları değerlendirme, işe alımlarda adayların seçimine yönelik yararlanılan sistemler veya kolluk kuvvetleri, sınır kontrolü, yasaların uygulanması, adaletin ve demokratik süreçlerin idaresine yönelik alanlarda kullanılan belirli sistemler örnek olarak verilebilir. Bu çerçevede bazı yapay zeka sistemlerinin demokrasi, hukukun üstünlüğü, bireysel özgürlüklerin yanı sıra, etkili başvuru hakkı ve adil yargılanma hakkı üzerindeki muhtemel önemli etkileri göz önünde bulundurularak yüksek riskli olarak sınıflandırılması gerektiği belirtilmektedir.

Sohbet robotları gibi Sınırlı Riskler İçeren Yapay Zeka Sistemlerinin kullanımında ise kullanıcıların bir makine ile etkileşime girdiklerinin farkında olmaları ve buna göre işleme devam etmeleri için bilgilendirilmeleri gibi bir şeffaflık yükümlülüğü öngörülmektedir.

Son olarak Yapay Zeka Yasası, bireylerin ve toplumun hakları veya güvenliği için Minimum Risk Oluşturan veya Hiç Risk Oluşturmayan Yapay Zeka Sistemlerinin serbestçe kullanılmasına izin vermektedir. (Örneğin Yapay zeka destekli öneri sistemleri veya spam filtreleri gibi minimum riskli uygulamalar.)

Yapay Zeka Yasasından Etkilenmesi Öngörülen Gruplar

Yapay Zeka Yasası, AB'de yerleşik olmasalar bile, yapay zekâ sistemlerinin üreticilerine, ithalatçılarına, distribütörlerine ve operatörlerine yükümlülükler getirir. Yapay Zeka Yasası, sistemlerini veya çıktılarını AB kullanıcılarına sağlayan AB sınırları dışındaki şirketler için de geçerlidir. Bu nedenle, AB’de yerleşik olmasa dahi AB ile ticaret yapan veya bu ülkelere ürün ve hizmet ihracatı gerçekleştiren tüm şirketler, yürürlüğe girme tarihine kadar Yapay Zeka Yasası kapsamında belirtilen şeffaflık ve diğer özel ek yükümlülüklere uyduklarından emin olmalıdırlar. Dolayısıyla, Türkiye'deki şirketler de AB ülkeleriyle ticaret yapıyor veya bu ülkelere ürün ve hizmet ihracatı gerçekleştiriyorlar ise, AB Yapay Zekâ Yasası'na uyum sağlamak zorunda kalacaklardır.

Yapay Zeka Yasasına Uyumlanmamanın Cezaları Nelerdir?

AB Yapay Zeka Yasası’na uymamaktan doğacak cezalar, şirketin bir önceki mali yıla ait dünya çapındaki yıllık gelir yüzdesine veya sabit tutara göre (hangisi daha yüksekse) belirlenir. Buna göre, Kabul Edilemez Risk İçeren Yasaklanmış Yapay Zeka Sistemleri için 35 milyon € veya yıllık gelir yüzdesinin %7’si, Yapay Zeka Yasası yükümlülüklerinin ihlali için 15 milyon € veya yıllık gelir yüzdesinin %3’ü ve Yanlış bilgi için 7,5 milyon € veya yıllık gelir yüzdesinin %1,5’i Yapay Zeka Yasası ile öngörülen ceza sınırlarıdır. Sonuç olarak, yakın zamanda yürürlüğe girmesi beklenen Yapay Zeka Yasası ile birlikte AB ile ticaret yapan veya bu ülkelere ürün ve hizmet ihracatı gerçekleştiren tüm şirketler Yapay Zeka Yasası’na uyumlanmak zorunda kalacaklardır. Aksi takdirde hem maddi hem de manevi anlamda zarara uğramaları kaçınılmaz olacaktır.

Avrupa Parlamentosu, OpenAI' ın ChatGPT'si gibi güçlü sistemler de dahil olmak üzere, dünyada yapay zeka kullanımına ilişkin yasal düzenlemeler getiren Avrupa Yapay Zeka Yasası’nı 13 Mart Çarşamba günkü genel kurulda onayladı. Avrupa Birliği (AB) Komisyonu, Avrupa Parlamentosu ve üye ülkelerin daha önce üzerinde uzlaşmaya vardığı düzenleme, 13 Mart Çarşamba günü parlamento genel kurulunda ele alındı. Avrupa Yapay Zeka Yasası, 46’ya karşı 523 üyenin oyuyla kabul edildi. Yeni yasa, AB Resmi Gazetesi’nde yayımlanmasının ardından Mayıs ayından itibaren, 2 yıl içinde aşamalı olarak bütün birlik genelinde yürürlüğe girecek. Kabul edilemez yapay zeka sistemlerine yönelik yasaklar 6 ay sonra, ChatGPT ve Midjourney gibi üretken yapay zeka sistemlerine ilişkin kurallar da önümüzdeki yıl uygulamaya konacak. Yasaya ilişkin nihai kurallar da, yapay zeka uygulamalarının ön yargılı ya da ayrımcı olup olmadığı konusundaki insan hakları testlerinin ardından Mayıs 2026'da yürürlüğe girmiş olacak.

Bu yazımızda Yapay Zeka Yasası’nın kapsam ve amacına değinilerek Risk Bazlı Sınıflandırma teorisi hakkında bilgi verilecek, Yapay Zeka Yasası’nın kimleri bağlayacağı ve Yapay Zeka Yasası’na uyumlanılmaması halinde öngörülen yaptırımlardan kısaca bahsedilecektir.

Yapay Zeka Yasasının Kapsamı ve Amacı

AB’de kabul edilen Yapay Zekâ Yasası, şirketlerin yapay zekâ sistemlerini uyumlu hale getirme ve etik kullanımını sağlama çabalarına odaklanarak inovasyonu teşvik etmeyi amaçlıyor. Güvenli, şeffaf, izlenebilir, ayrımcı olmayan ve çevre dostu yapay zeka sistemleri ile sağlık, güvenlik ve temel hakların korunmasını garanti altına alarak, AB’de güvenilir yapay zekanın geliştirilmesini, yaygınlaştırılmasını ve kullanılmasını destekleyeceği belirtiliyor. Şirketlerin bu yasaya uyum sağlamak için yapay zekâ sistemlerini analiz etmesi ve bir stratejik yol haritası oluşturması kritik önem taşıyor.

Dünyada türünün ilk örneklerinden biri olan Yapay Zeka Yasası, hızla gelişen teknolojiyi risk temelli ve insan odaklı bir yaklaşımla düzenlemeye çalışmaktadır. Üzerinde anlaşılan ve 13.03.2024 tarihinde genel kurulda onaylanan Yapay Zeka Yasasının, veri koruma mevzuatıyla uyumlu hale getirilmesi için daha fazla iyileştirici düzenlemeler de içerdiği ifade edilmektedir. Belirli şeffaflık yükümlülüklerine uyması gereken temel modeller için de özel kurallar üzerinde anlaşmaya varılmıştır. Büyük miktarda veriyle eğitilmiş ve gelişmiş karmaşıklığa, yeteneklere ve ortalamanın çok üzerinde performansa sahip (siber güvenlik ve enerji tüketimi raporlaması da dahil olmak üzere) modeller olan 'yüksek etkili' temel modeller (örneğin, OpenAI'nin GPT'si, Google'ın Gemini'si), daha katı bir rejim takip etmek zorunda kalacak ve bu da sistemik riskleri değer zinciri boyunca yayacaktır.

Risk Bazlı Yaklaşım ve Risk Sınıflarına Bağlanan Yaptırımlar

Yapay Zeka Yasası, yapay zeka sistemlerini potansiyel risklerine göre sınıflandıran ve bulunduğu risk grubuna göre işlem ve yaptırımlara tabii tutan bir yaklaşımı esas alır. Buna göre ; Kabul Edilemez Risk Taşıyan Yapay Zeka Sistemleri (Unacceptable Risk) , Yüksek Riskli Yapay Zeka Sistemleri (High Risk), Sınırlı Risk İçeren Yapay Zeka Sistemleri (Limited Risk) ve Minimum Risk Oluşturan veya Hiç Risk Oluşturmayan Yapay Zeka Sistemleri (Minimal Risk) olmak üzere dört farklı risk sınıflandırmasının mevcut olduğu söylenebilir.

Risk bazlı sınıflandırmada en ağır yükümlülüklere tabii olan sınıf Kabul Edilemez Risk Taşıyan Yapay Zeka Sistemleridir. Yapay zekanın bu kullanımlarındaki risk kabul edilemez olarak görülecek ve bu sistemlerin kullanımı yasaklanacaktır. Bunlar, bireyin hakları ve güvenliği açısından kabul edilemez düzeyde risk taşıdığı kabul edilen uygulamalardır. Bunlar bilişsel davranış manipülasyonu, yüz görüntülerinin internetten veya CCTV görüntülerinden ayrım gözetmeksizin çıkarılması, işyerinde ve eğitim kurumlarında duygu tanıma, kişisel özelliklere ve sosyal davranışa dayalı sosyal puanlama ve biyometrik sınıflandırma sistemleri için hassas nitelikler (cinsel yönelim veya dini inançlar gibi veriler) ve bireylere yönelik bazı öngörücü kolluk uygulamalarıdır. Ancak belirtmek gerekir ki, biyometrik tanımlama sistemleri ilke olarak yasaklanacak olsa da bu tür sistemlerin kamuya açık alanlarda kolluk kuvvetleri tarafından kullanılmasına yönelik bazı dar istisnalar üzerinde anlaşmaya varılmıştır. Buna göre, bu sistemler yalnızca önceden resmi izin alındıktan sonra ve kesin olarak tanımlanmış bir suç listesinin kovuşturulması için kullanılabilecektir.

Yüksek riskli olarak sınıflandırılan yapay zeka sistemleri ise topluma, çevreye veya bireylerin sağlık, güvenlik ve temel haklarına önemli ölçüde zarar verme riski doğurma ihtimali olan sistemlerdir. Bu tür yüksek riskli yapay zeka sistemlerine; vatandaşların hayatını ve sağlığını riske atabilecek ulaşım gibi kritik altyapılarda kullanılan, su, gaz ve elektrik sektörleri gibi altyapılar, tıbbi cihazlar, eğitim kurumlarına erişim ve kabul için adayları değerlendirme, işe alımlarda adayların seçimine yönelik yararlanılan sistemler veya kolluk kuvvetleri, sınır kontrolü, yasaların uygulanması, adaletin ve demokratik süreçlerin idaresine yönelik alanlarda kullanılan belirli sistemler örnek olarak verilebilir. Bu çerçevede bazı yapay zeka sistemlerinin demokrasi, hukukun üstünlüğü, bireysel özgürlüklerin yanı sıra, etkili başvuru hakkı ve adil yargılanma hakkı üzerindeki muhtemel önemli etkileri göz önünde bulundurularak yüksek riskli olarak sınıflandırılması gerektiği belirtilmektedir.

Sohbet robotları gibi Sınırlı Riskler İçeren Yapay Zeka Sistemlerinin kullanımında ise kullanıcıların bir makine ile etkileşime girdiklerinin farkında olmaları ve buna göre işleme devam etmeleri için bilgilendirilmeleri gibi bir şeffaflık yükümlülüğü öngörülmektedir.

Son olarak Yapay Zeka Yasası, bireylerin ve toplumun hakları veya güvenliği için Minimum Risk Oluşturan veya Hiç Risk Oluşturmayan Yapay Zeka Sistemlerinin serbestçe kullanılmasına izin vermektedir. (Örneğin Yapay zeka destekli öneri sistemleri veya spam filtreleri gibi minimum riskli uygulamalar.)

Yapay Zeka Yasasından Etkilenmesi Öngörülen Gruplar

Yapay Zeka Yasası, AB'de yerleşik olmasalar bile, yapay zekâ sistemlerinin üreticilerine, ithalatçılarına, distribütörlerine ve operatörlerine yükümlülükler getirir. Yapay Zeka Yasası, sistemlerini veya çıktılarını AB kullanıcılarına sağlayan AB sınırları dışındaki şirketler için de geçerlidir. Bu nedenle, AB’de yerleşik olmasa dahi AB ile ticaret yapan veya bu ülkelere ürün ve hizmet ihracatı gerçekleştiren tüm şirketler, yürürlüğe girme tarihine kadar Yapay Zeka Yasası kapsamında belirtilen şeffaflık ve diğer özel ek yükümlülüklere uyduklarından emin olmalıdırlar. Dolayısıyla, Türkiye'deki şirketler de AB ülkeleriyle ticaret yapıyor veya bu ülkelere ürün ve hizmet ihracatı gerçekleştiriyorlar ise, AB Yapay Zekâ Yasası'na uyum sağlamak zorunda kalacaklardır.

Yapay Zeka Yasasına Uyumlanmamanın Cezaları Nelerdir?

AB Yapay Zeka Yasası’na uymamaktan doğacak cezalar, şirketin bir önceki mali yıla ait dünya çapındaki yıllık gelir yüzdesine veya sabit tutara göre (hangisi daha yüksekse) belirlenir. Buna göre, Kabul Edilemez Risk İçeren Yasaklanmış Yapay Zeka Sistemleri için 35 milyon € veya yıllık gelir yüzdesinin %7’si, Yapay Zeka Yasası yükümlülüklerinin ihlali için 15 milyon € veya yıllık gelir yüzdesinin %3’ü ve Yanlış bilgi için 7,5 milyon € veya yıllık gelir yüzdesinin %1,5’i Yapay Zeka Yasası ile öngörülen ceza sınırlarıdır. Sonuç olarak, yakın zamanda yürürlüğe girmesi beklenen Yapay Zeka Yasası ile birlikte AB ile ticaret yapan veya bu ülkelere ürün ve hizmet ihracatı gerçekleştiren tüm şirketler Yapay Zeka Yasası’na uyumlanmak zorunda kalacaklardır. Aksi takdirde hem maddi hem de manevi anlamda zarara uğramaları kaçınılmaz olacaktır.

Abone Ol Paylaşılan bloglardan haberdar olmak için abone olabilirsiniz
E-Bülten aydınlatma metni için tıklayınız