.
27 Nisan Perşembe günü, Avrupa Parlamentosu nihayet Yapay Zeka Tüzüğü konusunda nihai bir anlaşmaya vardı. Önemli bir adım çünkü yapay zeka kullanımı risksiz değil.
Yönetmelik önerisine göre, ilgili risklere bağlı olarak yapay zekanın farklı kullanımları belirlenebilir: yasaklanmış kullanımlar, yüksek riskli kullanımlar ve önceki iki kategoriden herhangi birine girmeyenler.
Dürüstlüğü sınıflandırmak yasak
Avrupa yapay zeka yönetmeliği tarafından tasarlanan yasaklanmış kullanımlar aşağıdakilerle ilgilidir:
-
yapabilen AI bir kişinin davranışını değiştirmek bilinçaltı bir şekilde fiziksel veya psikolojik hasara neden olmak. Bu anlamda eğitim, istihdam, sınır kontrolü ve kolluk alanlarında duyguları tanıyan yapay zekaya dayalı sistemler yasaklanacak.
-
İstismar eden bu kullanımlar güvenlik açıkları Bir kişinin davranışını çarpıtmak için yaş veya fiziksel veya zihinsel engelliliğe göre belirli bir grup bireyin.
-
Kamu makamları tarafından veya adına değerlendirme amaçlı kullanımlar veya insanların dürüstlüğünün sınıflandırılması sosyal davranışlarına veya kişisel özelliklerine dayalı puanlama sistemleri aracılığıyla. Bu varsayımlar arasında, tahmine dayalı suç sistemlerinin veya idari dolandırıcılığın kullanılmasının yasaklanması yer alır.
-
gerçek zamanlı kullanımı kamusal alanlarda biyometrik tanımlama sistemleribelirli suç mağdurlarının aranması, yaşam veya fiziksel bütünlüğe yönelik belirli, yakın ve önemli bir tehdidin veya bir terör tehdidinin önlenmesi durumları dışında.
-
Kişinin tutuklanması, yeri veya zulmü bir suçun faili veya zanlısı. İstisnalar, yalnızca önceden adli izin alınması koşuluyla ciddi suçlar için yapılacaktır.
İstihdam, kamu hizmetleri ve adalet
Yeni yönetmelik, yüksek riskli olarak kabul edilen kullanımları da öngörüyor. Aralarında:
-
Sorumlu olduğu sistemler başka bir ürünün veya kendilerinin güvenliği.
-
Amaçlananlar biyometrik tanımlama ve gerçek kişilerin sınıflandırılması, kritik altyapıların yönetimi ve işletilmesi, eğitim ve mesleki eğitim
-
İşişçi yönetimi ve serbest mesleğe erişim.
-
Erişim ve keyfini çıkarma temel özel hizmetler ve kamu hizmetleri ve faydaları, ayrıca güvenlik güçleri ve organları tarafından kolluk kuvvetleri için kullanılanlar. Göç yönetimi, iltica ve sınır kontrolü ile ilgili olanlar da dahildir.
-
Yönetimi adalet ve demokratik süreçler.
Son meclis tartışmasında, büyük platformların tavsiye sistemlerinin dahil edilmesi kararlaştırıldı. çevrimiçiChatGPT veya Dall-e gibi çevre ve üretken yapay zeka üzerinde bir etki riski olduğunda kilit altyapılardan sorumlu sistemler.
Tüm bu durumlarda vatandaşların temel haklarını riske atan kullanımlar söz konusudur ve bunların ihlal edilmemesi için önlem alınması gerekecektir. Tabii ki, Avrupa Komisyonu’nun yıllardır konuyu düşünen kıdemli uzmanlar grubunun yapay zeka konusundaki kılavuzlarıyla uyumlu önlemler olacak.
Yaşam boyu riskleri değerlendirin
Avrupa yönetmeliği, risk değerlendirmesinin akıllı sistemin ömrü boyunca oluşturulması, uygulanması, belgelenmesi ve sürdürülmesi gerektiğini belirtir. Tekrarlayan bir şekilde. Amaçlanan kullanımlarından ve aynı zamanda potansiyel yanlış uygulamalardan doğabilecek riskler değerlendirilmelidir. Ve tabii ki bunları önlemek için önlemler alın.
Ayrıca Genel Veri Koruma Yönetmeliği düzenlemelerine uygun bir veri yönetim planının olması zorunludur. Tüm yapay zeka sistemlerinde, teknik belgelere erişimi teşvik etmek önemlidir ve bunlar, operasyonlarındaki şeffaflığın kullanıcıların sonuçlarını yorumlamasına izin verecek şekilde tasarlanmalıdır. Talimatların da anlaşılması kolay olmalıdır.
Öte yandan yönetmelik, yapay zekaya dayalı sistemlerin, vatandaşların sağlık, güvenlik veya temel haklarına yönelik riskleri önlemek ve azaltmak için sonuçlarının insan tarafından denetlenmesine izin verecek şekilde tasarlanmasını öngörüyor.
Gereksinimler burada bitmiyor: ayrıca kesin (metrik sistemler aracılığıyla), sağlam (arıza durumunda yedek kopyalar ve planlarla) ve siber güvenli (yetkisiz üçüncü şahıslar tarafından kullanılma girişimlerine karşı hazırlıklı) olmalıdır.
Tüm bu ilkeler, kıdemli uzmanlar grubunun etik kılavuzlarında zaten yer alıyordu. Yakın tarihli Avrupa parlamenter tartışmasında, sosyal ve çevresel refah, çeşitliliğe saygı ve ayrımcılık yapmama ve adalet ilkesi gibi eksik olan diğer konuların getirilmesi kararlaştırıldı.
Güvenilir bir yapay zekaya doğru
Düzenlemenin temel haklara saygıya ve Avrupa Komisyonu’nun kıdemli uzmanlarından oluşan grubun yedi yol gösterici ilkesine dayanması gerçeği, net bir Avrupa standardına izin verir: güvenilir yapay zeka.
Bu gereksinimler, ulusal yapay zeka ajansları tarafından ve birden fazla ülkede kullanıldıkları veya büyük bir ulusötesi etkiye sahip oldukları durumlarda, gelecekteki Avrupa AI Kurulu tarafından kontrol edilecektir.
Mevzuatın hazırlanması biraz zaman almış olsa da, tasarımının merkez ekseni insanı alan, temel hakların gözetilmesi ve korunmasını ön planda tutarak vatandaşa güvenceler verecek bir metin olduğu tartışılmaz.
.