.
2016 kışında, Google Nest ev otomasyonu yöneticisi, yazılım pillere zarar veren termostatlarının. Çok sayıda kullanıcının bağlantısı kesildi, ancak birçoğu pilleri değiştirebildi, yeni bir termostat satın aldı veya Google’ın düzeltmesini bekledi. Şirket, arızanın bu güncellemeleri yöneten yapay zeka (AI) sisteminden kaynaklanmış olabileceğini belirtti.
Nüfusun çoğunluğu bu termostatlardan birini kullansaydı ve arıza ülkenin yarısını günlerce soğuğa maruz bıraksaydı ne olurdu? Teknik bir sorun, devlet müdahalesini gerektirecek bir sosyal acil duruma dönüşebilirdi. Hepsi hatalı bir yapay zeka sistemi yüzünden.
Dünyada hiçbir yargı, yapay zekanın ürettiği problemler için kapsamlı ve spesifik bir düzenleme geliştirmemiştir. Bu, tam bir yasama boşluğu olduğu anlamına gelmez: yapay zekanın neden olabileceği zararların birçoğunun başka yanıt verme yolları vardır.
Örneğin:
-
Sürücüsüz arabaların neden olduğu kazalar için sigorta, tazminat taleplerinin ilk alıcısı olmaya devam edecek.
-
İş seçme süreçlerinde yapay zeka sistemlerini kullanan şirketler, ayrımcı uygulamalarda bulunmaları halinde dava edilebilecek.
-
Fiyatları belirlemek ve kimi sigortalatacağına karar vermek için yapay zeka modellerinin ürettiği analizlerden türetilen tüketici karşıtı uygulamalara girişen sigortacılar, şirketler olarak cevap vermek zorunda kalmaya devam edecek.
Genel olarak, sözleşme hukuku, nakliye, zararlar, tüketici hukuku ve hatta insan haklarının korunmasına yönelik düzenlemeler gibi halihazırda var olan diğer düzenlemeler, yapay zekanın düzenleyici ihtiyaçlarının birçoğunu yeterince karşılayacaktır.
Genel olarak yeterli görünmüyor. Bu sistemlerin kullanılmasının hukuk sistemimizde kolayca çözülemeyecek sorunlar yaratacağı konusunda kesin bir görüş birliği vardır. Geliştiriciler ve profesyonel kullanıcılar arasındaki sorumluluğun dağılmasından zararların ölçeklenebilirliğine kadar, AI sistemleri yasal mantığımıza meydan okur.
Örneğin, bir yapay zeka derin ağda yasa dışı bilgiler bulur ve buna göre yatırım kararları verirse, bu yasa dışı yatırım uygulamalarından emeklilik fonlarını yöneten banka veya otomatik yatırım sistemini oluşturan şirket sorumlu tutulmalı mı?
Özerk bir topluluk, bir yapay zeka sistemi tarafından yönetilen tıbbi reçeteler için bir katkı payı ödemeye karar verirse ve bu sistem küçük hatalar yaparsa (örneğin, her reçete için birkaç sent), ancak bu hatalar neredeyse tüm nüfusu etkilerse, bundan kim sorumludur? ilk kontrol eksikliği? Yönetim? Sistemi kuran müteahhit mi?
Avrupa (ve küresel) bir düzenleyici sisteme doğru
Yapay zekanın düzenlenmesine yönelik Avrupa Birliği düzenleme teklifinin Nisan 2021’deki sunumundan bu yana, sözde Yapay Zeka Yasasıbizi 2025 yılına kadar tüm Avrupa Ekonomik Alanı ve belki de İsviçre için bir düzenleyici sisteme götürmesi gereken yavaş yasama süreci başlatıldı. sistemler.
Peki ya Avrupa Birliği dışında? Başka kim yapay zekayı düzenlemek ister?
Bu konularda Amerika Birleşik Devletleri, Çin ve Japonya’ya bakma eğilimindeyiz ve genellikle mevzuatın bir derece meselesi olduğunu varsayıyoruz: az ya da çok çevre koruması, az ya da çok tüketici koruması. Ancak yapay zeka bağlamında yasa koyucuların vizyonlarının ne kadar farklı olduğu şaşırtıcı.
Amerika Birleşik Devletleri
Amerika Birleşik Devletleri’nde yapay zeka ile ilgili temel mevzuat, daha çok siber güvenlikle ilgili olan ve bunun yerine standartların oluşturulması gibi diğer dolaylı düzenleme tekniklerine atıfta bulunan, sınırlı maddi içeriğe sahip bir normdur. Altta yatan fikir, yapay zeka sistemlerinin riskini kontrol etmek için geliştirilen standartların şirketler tarafından gönüllü olarak kabul edilmesi ve onların standardı haline gelmesidir. fiilen.
Bu standartlar üzerinde bir miktar kontrol sağlamak için, normalde teknik standartlar geliştiren ve şirketlerin kendileri tarafından kontrol edilen kuruluşların takdirine bırakmak yerine, bu durumda AI sistemleri risk kontrol standartları bir federal tarafından geliştirilmektedir. ajans (NIST).
Böylece Amerika Birleşik Devletleri, standartlar oluşturmak için endüstriye, tüketicilere ve kullanıcılara açık bir sürece dalmış durumda. Buna şimdi yine gönüllülük esasına dayanan bir Yapay Zeka Haklar Bildirgesi için bir Beyaz Saray taslağı eşlik ediyor. Aynı zamanda birçok eyalet, iş seçim süreçlerinde yapay zekanın kullanılması gibi belirli belirli bağlamlar için özel mevzuat geliştirmeye çalışıyor.
Çin
Çin, yalnızca yapay zekanın gelişimine değil, aynı zamanda düzenlemesine de öncülük etmek için karmaşık bir plan geliştirdi.
Bunu yapmak için şunları birleştirir:
-
Düzenleyici deneyler (belirli iller, örneğin otonom sürüşün geliştirilmesini kolaylaştırmak için kendi düzenlemelerini geliştirebilir).
-
Standartların geliştirilmesi (otuzdan fazla alt sektörü kapsayan karmaşık bir plan ile).
-
Katı düzenleme (örneğin, sosyal düzeni değiştirebilecek tavsiyelerden kaçınmak için internetteki tavsiye mekanizmaları).
Tüm bu nedenlerden dolayı Çin, gelişimini engellemeyen yapay zekanın düzenleyici kontrolünü taahhüt ediyor.
Japonya
Japonya’da ise yapay zekayı düzenleme ihtiyacı konusunda pek endişeli görünmüyorlar.
Bunun yerine devlet, şirketler, çalışanlar ve kullanıcılar arasındaki ortaklık geleneğinin yapay zekanın yol açabileceği en kötü sorunları önleyeceğine güveniyorlar. Şu anda politikalarını toplum 5.0’ın gelişimine odaklıyorlar.
Kanada
Düzenleme açısından belki de en gelişmiş ülke Kanada’dır. Orada, iki yıl boyunca, kamu sektöründe kullanılan her yapay zeka sistemi, risklerini öngören bir etki analizinden geçmelidir.
Özel sektör için, Kanada yasama organı şu anda Avrupa standardına benzer (çok daha basitleştirilmiş olsa da) bir standardı tartışıyor. Benzer bir süreç geçen yıl Brezilya’da başlatıldı. İvmesini kaybetmiş gibi görünse de artık seçimlerden sonra kurtarılabilir.
Avustralya’dan Hindistan’a
Meksika’dan Avustralya’ya, Singapur ve Hindistan’dan geçen diğer ülkeler bekleme durumunda.
Bu ülkeler, mevcut kurallarının yapay zekanın yol açabileceği en kötü zararı önleyecek şekilde uyarlanabileceğinden emin görünüyorlar ve diğer girişimlerde ne olacağını bekleyip görmek için kendilerine izin veriyorlar.
Farklı vizyonlara sahip iki parti
Bu yasal çeşitlilik içinde iki parti oynanmaktadır.
İlki, destekçiler arasında, yapay zeka gibi yıkıcı bir teknolojiyi -ve tam olarak anlaşılmamış- düzenlemek için çok erken olduğu; ve ana sorunları ele alan ve aynı zamanda geliştiriciler ve kullanıcılar için yasal kesinlik yaratan net bir düzenleyici çerçeveye sahip olmayı tercih edenler.
İkinci oyun ve belki de en ilginç olanı, düzenleyici olma yarışmasıdır. fiilen yapay zekanın küresel seviyesi.
Avrupa Birliği’nin taahhüdü açıktır: önce kendi topraklarında ürünlerini satmak isteyen herkesi bağlayan kurallar oluşturun. Bugün teknoloji şirketleri için küresel referans olan Genel Veri Koruma Yönetmeliği’nin başarısı, Avrupa kurumlarını bu modeli izlemeye teşvik ediyor.
Onlarla karşı karşıya kalan Çin ve Amerika Birleşik Devletleri, şirketlerinin aşırı kısıtlamalar olmadan gelişebileceğini ve gönüllü olsalar bile standartlarının diğer ülke ve şirketler için referans haline gelebileceğini umarak ayrıntılı düzenlemelerden kaçınmayı seçtiler.
Burada zaman Avrupa’ya karşı oynuyor. ABD, standartlarının ilk sürümünü önümüzdeki aylarda yayınlayacak. Avrupa Birliği iki yıl daha geçerli bir mevzuata sahip olmayacak. Belki de Avrupa hırsının aşırılığının kıtanın içinde ve dışında bir bedeli olacak ve yürürlüğe girdiklerinde diğer düzenlemeler tarafından çoktan aşılmış olan kurallar yaratmanın bedeli olacaktır.
.