Yapay Zeka Ayrımcılığı: Riskler ve Önlemler

Prof. Dr. Mehmet Rıfat Tınç, yapay zekanın ayrımcılıktaki rolünü ele alarak Türkiye ve dünya genelinde bu konudaki alınan önlemleri değerlendirdi. Yapay zeka algoritmalarının cinsiyet, yaş ve köken gibi kişisel özelliklere dayalı olarak ayrımcılık yapma potansiyeline sahip olduğunu belirten Tınç, “Teknolojik bir nesnenin ayrımcılık yapması, onu hukuki açıdan bir suç aletine dönüştürebilir. Bu nedenle yapay zekanın nasıl ve neden ayrımcılık yapabileceğini anlamak büyük önem taşıyor” ifadelerini kullandı.
‘NE YAZILIMLAR NE DE ROBOTLAR, TOPLUMUN VE HUKUKUN GELİŞİMİNİ DURDURABİLİR’
Prof. Dr. Tınç, algoritmaların hukuk bilgisi ve toplumsal anlayışa sahip olmadığı için ayrımcılık yapma ihtimalinin bulunduğunu vurgulayarak, “Eğer bir yazılım, hukuk mantığını tamamen benimsemiş olsa bile, ayrımcılık iddialarıyla yargıya taşınacak tartışmalar kaçınılmaz olacaktır. Çünkü ne yazılımlar ne de robotlar, toplumun ve hukukun gelişimini durdurabilir” şeklinde konuştu.
‘HUKUKÇULAR ÇÖZÜM ÜRETMELİ’
Tınç, bu noktada özellikle hukukçuların, yapay zeka ayrımcılığının ortaya çıkaracağı yeni ve kritik sorulara yanıtlar üretmesi gerektiğinin altını çizdi. Ayrıca yapay zekanın iki farklı şekilde ayrımcılık yapabileceğini de belirtti. Aritmetik ayrımcılığın, aynı durumda olan bireylere farklı muamele yapılması anlamına geldiğini dile getiren Tınç, örnek olarak “Aynı iş için aynı performansı gösteren iki kişinin farklı ücret alması” durumunu örnek gösterdi. Geometrik ayrımcılığın ise, farklı durumdaki kişilere aynı muamele yapılmasını ifade ettiğini ekledi. Ayrıca, “Bir sınavda engelli bir kişiye diğerleriyle aynı sürenin verilmesi” örneğini de verdi.
‘YAPAY ZEKA HUKUK VE TOPLUM KARŞISINDA DEMODE KALABİLİR’
“Algoritmalar, insanlar gibi ahlâk sahibi olamazlar” diyen Prof. Dr. Tınç, sözlerine devam ederek, “Kendilerine dayatılan ahlâk kurallarının dışına çıkamazlar ya da kendi kendilerine bu kuralları geliştiremezler. Bu sebeple, yapay zekanın mutlaka dışarıdan müdahaleye, insan eliyle revize edilmeye ve güncellenmeye açık olması gerekir” şeklinde ifade etti. Tınç, müdahale edemediğimiz, revize edemediğimiz ve sadece kendi kendini geliştiren bir yapay zekanın ileride istenmeyen sonuçlar doğurabileceğini belirtti. “Bir süre sonra bizi ilerletmek yerine geriletebilir ya da ahlâk anlayışımızın ve bilinç yapımızın gerisinde kalabilir” şeklinde uyardı.
Bu sebeplerle, Avrupa ve Japonya gibi ülkelerde yapay zekanın yol açabileceği hatalar ve suçlar için yeni mevzuat düzenlemelerinin yapılması gerektiğini vurguladı. Yapay zekanın bir hukuk kişisi olmamasının, sorumluluğun belirlenmesini zorlaştırdığını söyleyen Tınç, yapay zekayı geliştiren ve kullanan şirketler ile kişilerin, bu teknolojinin neden olduğu zararlar için sorumlu tutulabileceğini ifade etti.
Ayrıca, yapay zekanın ayrımcılık yapmasını önlemek amacıyla bazı tedbirler önerdi. Bu tedbirler arasında şunlar vardır:
- Algoritmik Önlemler: Algoritmaların düzenli olarak denetlenmesi ve önyargıların giderilmesi, yazılımlardaki sistematikleşme eğilimlerine karşı güncellemeler ve düzeltici formüllerin uygulanması.
- Kurumsal Önlemler: Yapay zekayı kullanan kurumların belirli aralıklarla denetlenmesi.
- <