Yapay Zekanın Tehlikelerinden Kendimizi Nasıl Koruruz?

İnsan haklarımızı yapay zekadan korumak için neden etik kurallara ihtiyacımız var?

Yapay Zeka

Yapay Zekâ (AI), insanlığın ilerlemesini Sanayi Devrimi’nden bu yana görülmemiş bir ölçekte dönüştürme potansiyeline sahiptir. Bununla birlikte, aynı zamanda sayısız etik ve yasal sorun yaratma potansiyeline de sahiptir.

Her iki konuyu da kapsayan klasik bir örnek vermek gerekirse, otonom araba anlatmak istediğimizi çok güzel açıklayabilir. Böyle bir aracın bir yaya kalabalığına çarpmak üzere olduğunu düşünün. Arabanın yazılımını yolcuları mı yoksa kalabalığı mı korumak için programlamalıydık? Ya arabadaki dört yolcuya kıyasla tehlikede olan sadece bir üçüncü kişi varsa? Peki, işler ters gittiğinde yasal sorumluluk ne olacak? Bir yazılım hatası, yolcuların veya yoldan geçenlerin ölümüne veya yaralanmasına neden olan bir yanlış manevrayla sonuçlandığında sorumluluğu kim üstlenir?

Yapay zekâ halihazırda adalet ve kolluk sistemlerinde kullanılıyor. Londra Metropolitan polisi, pop konserleri, festivaller ve futbol maçları gibi halka açık etkinliklerde kullanılan otomatik bir yüz tanıma sistemini (AFR) deniyor. Mobil CCTV kameraları, yüzlerin görüntülerini, aranan suçluların sabıka fotoğraflarıyla eşleştirmek için kalabalığı tarıyor.

Bilgi Edinme Özgürlüğü yasaları kullanılarak elde edilen verilere göre, bu tür eşleşmelerin yüzde 98’i yanlıştır. Baskı grubu Big Brother Watch, insanların yanlış bir şekilde suçlu olarak tanımlanma korkusuyla protesto yürüyüşlerine katılmaktan kaçındıklarından bahsediyor. Aynı zamanda Big Brother Watch, insanların bu korkusundan yola çıkarak otomatik yüz tanıma sisteminin, özgür bir toplum üzerinde potansiyel olarak korkutucu bir etkiyle kamusal alanları biyometrik kontrol noktalarına dönüştürme riski bulunduğu konusunda da uyarıda bulunuyor.

University College London’daki araştırmacılar, Strasbourg’da kendi Avrupa İnsan Hakları Mahkemesi’ne giden 584 davayla ilgili verileri işlerken inanılmaz bir keşifte bulundular. Bir yapay zekâ “yargıcı” mevcut içtihatları analiz edebilmiş ve davaların yüzde 79’unda, AİHM hakimleri ile aynı kararı verebilmiştir. Çalışma, AİHM kararlarının gerçekte yasal argümanlardan ziyade işkence, mahremiyet, adil yargılama ve aşağılayıcı muamele ile ilgili yasal olmayan gerçeklere dayandığını ortaya koymuştur.

Daha geniş bir konu, büyük verilerin toplanmasıyla ilgilidir. Yapay Zeka’nın ilerlemesi ve başarıya ulaşması için gereken veri miktarı kaçınılmaz olarak artacaktır. Bu, insanların verilerinin rızaları ve hatta bilgileri olmadan toplanması, saklanması ve manipüle edilmesi için daha yüksek risklerin olacağı anlamına gelir. Cambridge Analytica ile ilgili son skandal buna iyi bir örnektir.

Peki, bireyler ve ülkeler arasındaki kültürel ve politik önyargılar için ne diyebiliriz? Örneğin, bir kültürde bir kişinin fotoğrafının çekilmesi kabul edilebilirken, bir başka kültürde dini nedenlerden ötürü fotoğraf çekilmesi yasaklanabilir. Yapay zekâ programları, programcıların ve etkileşimde bulundukları insanların önyargılarını da kapsayabilir.

Tay adlı bir Microsoft AI sohbet robotu, insan izleyici ve okuyucu kitlesiyle etkileşimli öğrenmenin ardından geçen 24 saat içinde ırkçı, cinsiyetçi ve antisemitik (Yahudilere karşı önyargılı olma) hale geldi. ABD mahkemelerinin sanıkların yeniden suç işleme ihtimalini tahmin etmelerine yardımcı olmak için geliştirilen başka bir yazılımın (COMPAS), Afro-Amerikalılara karşı önyargılı olduğu tespit edildi.

Teknoloji, Yapay Zeka

Avrupa Birliği’nin yeni Genel Veri Koruma Yönetmeliği’nin önde gelen mimarlarından Paul Nemitz şöyle diyor:

“Yapay zekâ çağı için ‘hukukun üstünlüğü, demokrasi ve insan hakları’ dediğimiz yeni bir teknoloji ve iş geliştirme kültürüne ihtiyacımız var. Bu temel standartlar yapay zekaya dönüştürülmelidir çünkü yapay zekâ gibi teknolojilerin tamamen yaygın hale geldiği bir dünyaya giriyoruz.”

Artık birçok uzman, insanlığın yapay zekanın potansiyel insan hakları ihlalinden korumak için açık ve kapsamlı bir ilkeler kümesine ihtiyacı olduğuna inanıyor. Bu amaçla, Avrupa Adaletin Etkinliği Komisyonu (CEPEJ), hukuk sistemlerinde yapay zekanın kullanımına ilişkin etik ilkeleri belirleyen ilk Avrupa metnini kabul etmiştir. Bunlar arasında temel haklarla uyumluluk, ayrımcılık yapmama, kalite ve güvenliğin korunması, şeffaf, tarafsız ve adil davranma ve son olarak da yapay zekâ kullanıcılarının seçimlerini kontrol eden aktörler olarak bilgilendirilmelerinin sağlanması yer almaktadır.

Yapay Zeka

Avrupa Etik Tüzüğü’nde bir araya getirilen ilkeler, ulusal yargı süreçlerinde yapay zekanın hızlı gelişimi ile pençeleşirken politika yapıcılara, yasa koyuculara ve adalet uzmanlarına rehberlik edecek bir çerçeve sunmaktadır. Avrupa Adaletin Etkinliği Komisyonu ve Avrupa Konseyi, yapay zekanın her zaman kişisel haklara saygı göstererek genel çıkarların hizmetinde bir araç olarak kalmasını sağlamanın şart olduğuna inanmaktadır. Zekâ yapay olabilir, ancak özgürlüğümüz için oluşturduğu tehlikeler çok gerçektir.

Kripto paralar hakkında; merak ettikleriniz, öğrenmek istedikleriniz, soru-cevap, güncel analizler için Telegram kanalımızda bizi takip edin ve iletişimde kalın. KoinSaati’nin Telegram Kanalına katılmak için tıklayınız.

Ezgi Çoban tarafından yazıldı.

Başkent Üniversitesi Yönetim Bilişim Sistemleri aynı zamanda Uluslararası Ticaret ve Finansman Çift Anadal Programı öğrencisi. YBS Genç Bilişimci dergisi editörü. KoinSaati'nde çiçeği burnunda stajyer.

Corinthians

Corinthians Fan Token Bugün Satışa Çıkıyor: $SCCP Token Nasıl Satın Alınır?

Galatasaray ShirtumApp ile NFT Çıkarıyor: Shirtumapp Nedir?