Yapay Zekâ İş İlanlarında Kadınları Neden Görmezden Geliyor? Algoritmik Önyargı ve Hukuki Eşitlik

Dijital Çağda İşe Alımın Evrimi
Son yıllarda yapay zekâ (YZ) sistemleri, diğer tüm sektörlere ek olarak insan kaynakları (İK) süreçlerinin de vazgeçilmezi haline gelmektedir. İşe alım kararları, özgeçmiş filtreleme ve hatta adaylara iş ilanı gösterme gibi kritik görevler artık algoritmalar tarafından yürütülmektedir. Şirketlerin temel amacı, elbette, operasyonel verimliliği artırmak ve insan kaynaklı önyargıyı ortadan kaldırmaktır.
Ancak ironik bir şekilde, bu sistemlerin beklentilerin tam tersi sonuçlar üretebildiği gözlenmektedir. Küresel çapta yapılan birçok araştırma, YZ destekli İK araçlarının mevcut toplumsal cinsiyet eşitsizliğini pekiştirdiğini ve hatta artırdığını göstermekte; özellikle teknoloji, mühendislik ve üst düzey yönetici pozisyonlarına yönelik iş ilanlarında, YZ'nin kadın adayları sistem dışına ittiği vakalarla sıkça karşılaşılmaktadır.
Bu durumun ciddiyetini anlamak için, teknoloji devi Amazon'un 2018'de kamuoyuna yansıyan vaka incelemesine bakmak yerinde olacaktır. Şirket, işe alım süreçlerini otomatikleştirmek için geliştirdiği YZ aracının, eğitildiği verilerdeki erkek egemenliği nedeniyle kadın adayları sistematik olarak cezalandırdığını fark etmiştir. Algoritma, adayların özgeçmişlerinde bulunan kadın ibarelerine (örneğin “kadınlar satranç kulübü kaptanı”) düşük puan verirken, erkek adayların geçmiş performansını bir norm olarak kabul etmekteydi.
Bu çarpıcı örnek, amaç verimlilik olsa dahi, YZ'nin geçmişin önyargısını geleceğe taşıyarak hukuki eşitlik ilkesini nasıl tehdit ettiğini göstermektedir. Peki, mantıkla ve veriyle hareket etmesi beklenen bir teknoloji, bu kadar ayrımcı kararları nasıl verebiliyor? Bu makale, bu algoritmik ayrımcılığın hukuki ve teknik kökenlerini inceleyecek, kamu hukuku ve eşitlik ilkesi açısından bu durumun yarattığı derin sorunları ele alacaktır.
1. Algoritmik Önyargının Teknik Kökeni: Geçmişin Laneti
YZ, temelde geçmiş verilerden öğrenir. Bir İK algoritmasını eğitmek için kullanılan veri seti, genellikle bir şirketin veya sektörün önceki başarılı çalışanlarının (ve dolayısıyla işe alım kararlarının) kaydıdır. İşte sorun tam da burada başlamaktadır.
1.1 Tarihsel Eşitsizlikten Kaynaklanan Veri Kalıpları
Geleneksel olarak, erkeklerin hâkim olduğu mühendislik, yazılım geliştirme veya ağır sanayi gibi sektörlerdeki geçmiş işe alım verileri, doğal olarak çoğunlukla erkek adayların başarılı olduğunu gösterir. YZ, bu geçmiş performansı istatistiksel bir "norm" olarak algılar ve bu normdan sapmaları (örneğin, kadın adayları) potansiyel olarak daha az uygun olarak etiketlemeye başlar.
Bu durum, uzmanlar tarafından "geçmişin laneti" olarak adlandırılabilir: YZ, var olan yapısal eşitsizlikleri (kadınların belirli mesleklere tarihsel olarak daha az erişimi) öğrenir ve bunu gelecekteki kararlarına yansıtarak bu eşitsizlikleri döngüsel olarak güçlendirir. Algoritma, bilinçli bir "nefret" ile hareket etmez; sadece kendisine öğretilen tarihsel kalıpları kopyalar. Teknik olarak buna "veri önyargısı" denir.
Türkiye'deki düzenleyici otoriteler de bu riske dikkat çekmektedir. Kişisel Verileri Koruma Kurumu’nun (KVKK) uyarısına göre, büyük veri setleriyle beslenen YZ sistemlerinin alacağı kararlar, bireylerin temel hak ve hürriyetlerini kısıtlama, hatta kamu hizmetlerinden yararlanmalarını engelleme riski taşır. Kurum, bir algoritmanın önyargılı verilerle eğitilmesi durumunda, bu önyargıları yeniden üreterek onları daha da güçlendirebileceği hususunda uyarıda bulunmaktadır.
1.2 Dilsel Önyargı ve Doğal Dil İşleme (NLP)
YZ, iş ilanı metinlerini ve özgeçmişleri analiz ederken de dilsel önyargılarla hareket edebilir. Algoritmaların metin işleme yetenekleri, büyük veri setlerinden öğrenerek belirli kelimeleri belirli cinsiyetlerle ilişkilendirme eğilimindedir.
- Erkekle ilişkilendirilen kelimeler: Lider, idare eden, hükmeden, rekabetçi, otoriter.
- Kadınla ilişkilendirilen kelimeler: İşbirlikçi, güvenilir, organizasyonel, destekleyici, iletişim odaklı.
Bir iş ilanı "hırslı lider" aradığında, YZ bu kelimeyi ağırlıklı olarak erkek adaylarla ilişkilendirilen kategorilere sokabilir ve bu nedenle kadın adayları otomatik olarak alt sıralara atar veya tamamen görmezden gelir. Bu, görünmez bir ayrımcılık bariyeri oluşturur; çünkü kadın aday, teknik olarak yeterli olsa bile, YZ onun "doğru dil kalıbına" sahip olmadığını düşünür. Bu kalıplar bazen dolaylı bile olabilir: Belirli bir kadın kolejinden mezun olmayı veya sırf kadınlara özgü hobileri bile "daha az uygun" olarak kodlayabilir.
2. Hukuki Zemin: Anayasal Eşitlik İlkesi ve Dijital Ayrımcılık
Algoritmik önyargı, sadece teknik bir hata veya İK hatası değil, aynı zamanda anayasal düzeyde korunan eşitlik ilkesinin doğrudan ihlalidir. Vurgulanması gereken ise, mevcut yasal çerçevelerin bu dijital tehdide nasıl yaklaştığıdır.
2.1 Dolaylı Ayrımcılığın Yeni Biçimi
Anayasa'nın 10. maddesindeki (Eşitlik İlkesi) ve 4857 sayılı İş Kanunu'nun 5. maddesindeki (Eşit Davranma İlkesi) cinsiyete dayalı ayrımcılığı kesinlikle engeller. YZ’nin genellikle gerçekleştirdiği ayrımcılık biçimi dolaylı ayrımcılıktır.
- Doğrudan Ayrımcılık: Açıkça "Cinsiyeti kadın olan başvurular değerlendirilmez" demek.
- Dolaylı Ayrımcılık: Görünüşte nötr olan bir kuralın (örneğin, "özgeçmişte liderlik kelimesi geçme sıklığına göre sırala" kuralı) tarihsel veya kültürel nedenlerle belirli bir cinsiyeti orantısız şekilde dezavantajlı hale getirmesi.
YZ algoritması, tarafsızlık maskesi altında kadın adayları sistematik olarak dezavantajlı konuma getirdiğinde, İş Kanunu'nun eşit davranma yükümlülüğünü ve Anayasal eşitlik ilkesini ihlal eder. YZ bu ayrımcılığı dolaylı olarak gerçekleştirdiğinde, devletin ve hukukun bu durumu denetleme ve düzeltme yükümlülüğü doğar.
2.2 Kanıtlama Yükümlülüğü ve Kara Kutu Sorunu
Mağdurun hukuki süreçlerde kendisine yapılan ayrımcılığı kanıtlaması, YZ sistemlerinin "kara kutu" yapısı nedeniyle neredeyse imkânsızdır. Geleneksel yazılımlarda bir hata veya önyargı kaynağını tespit etmek mümkünken, derin öğrenme modellerinde algoritmanın karar mekanizması, milyonlarca karmaşık parametre arasındaki ilişkiye dayanır.
“Algoritmanın neden bu tür sakıncalı çıkarımlar yaptığı sorusu yapay zekâyı geliştiren uzmanlar tarafından bile cevaplanamamaktadır.” Bu durum, adayın cinsiyeti, ırkı veya eğitim geçmişi gibi korunan bir özelliğinden dolayı mı elendiğini, yoksa gerçekten teknik bir yetersizlikten mi elendiğini harici bir gözlemcinin belirlemesini engeller. Bu şeffaflık eksikliği, Anayasa'nın güvence altına aldığı hak arama özgürlüğünü ve ispat hakkını doğrudan kısıtlamaktadır. Çünkü mağdur, aleyhine işleyen ayrımcılığı kanıtlama külfetini yerine getirecek somut bir veri sunamazken, işveren YZ'nin "tarafsızlığı" arkasına sığınabilmektedir. Bu durum, hukuki taleplerin artık sadece tazminat değil, aynı zamanda algoritmanın açıklanabilirliğini talep etmesi yönünde evrilmesine yol açmıştır.
3. Uluslararası Regülasyonlar ve Türkiye Perspektifi
Algoritmik ayrımcılık kaçınılmaz bir kader değildir ve uluslararası hukuk bu durumu çözmek için net adımlar atmaktadır.
3.1 AB Yapay Zeka Yasası (AI Act) ve Yüksek Riskli İK Sistemleri
Avrupa Birliği'nin resmen kabul ettiği ve yürürlükte bulunan Yapay Zeka Yasası (AI Act), İK sistemlerini yüksek riskli kategorisinde değerlendirerek bu alana hukuki bir çerçeve getiren en önemli adımdır. Yasa, işe alım süreçlerini etkileyen YZ sistemlerini, temel haklara ve fırsat eşitliğine zarar verme potansiyelleri nedeniyle yüksek riskli olarak sınıflandırmaktadır. Yüksek riskli sayılan bu tür sistemleri piyasaya süren ve kullanan kuruluşlara getirilen başlıca yükümlülükler şunlardır:
- Risk Yönetimi Sistemi: Sistemin potansiyel risklerini sürekli olarak değerlendirme ve azaltma zorunluluğu.
- Yüksek Kaliteli Veri: Sistemlerin eğitildiği veri setlerinin önyargılardan arındırılmış, temsili ve güvenilir olması.
- İnsan Gözetimi: YZ'nin nihai kararlarının bir insan tarafından denetlenmesi ve gerekirse müdahale edilmesi.
- Şeffaflık ve Belgeleme: Sistemlerin nasıl çalıştığının ve hangi faktörlere göre karar verdiğinin (model kartları gibi) detaylı bir şekilde belgelenmesi.
Türkiye'nin de uluslararası standartlara uyum ve AB ile ticari ilişkiler bağlamında bu tür düzenlemeleri yakından takip etmesi ve ulusal mevzuatını hazırlaması hayati önem taşımaktadır. Kişisel Verileri Koruma Kurumu (KVKK) gibi kurumlar da bu alandaki riskleri ve etik yükümlülükleri sürekli olarak takip etmelidir.
4. Algoritmik Ayrımcılıkla Mücadele: Çözümler
YZ'nin potansiyelini gerçekleştirmesi için atılması gereken hem hukuki hem de teknik adımlar mevcuttur.
4.1 Yönetimsel ve Hukuki Çözümler
- Bağımsız Etik Denetim ve Sertifikasyon: İşe alım kararları veren YZ sistemlerinin piyasaya sürülmeden önce bağımsız otoriteler tarafından önyargı ve ayrımcılık testlerinden geçirilmesi ve sertifikalandırılması zorunlu hale gelmelidir. Bu, AB modelindeki uygunluk değerlendirmesine benzer bir süreçtir ve işverenin yasal yükümlülüğünü yerine getirdiğini gösterir.
- Şeffaflık ve Belgeleme Zorunluluğu: İK YZ sistemlerinin nasıl çalıştığının ve hangi faktörlere ağırlık verdiğinin belgelenmesi (model kartları) zorunlu olmalıdır. Bu, özellikle mağdurun hukuki süreçlerde kanıt sunabilmesi ve "açıklanabilirlik" ilkesinin sağlanması için hayati önem taşır.
4.2 Teknik Çözümler: Önyargıyı Kodda Yenmek
- Veri Dengeleme: Algoritmalar, tarihsel önyargılardan arındırılmış, yapay olarak dengelenmiş veya "ayrımcılığa duyarlı" veri setleriyle yeniden eğitilmelidir. Bu süreçte, modelin cinsiyet gibi korunan bir özelliğe bakarak karar vermesi engellenir.
- Eşitlik Metriklerinin Uygulanması: YZ modelinin başarısı sadece teknik doğrulukla değil, aynı zamanda farklı cinsiyet gruplarında eşit sonuçlar üretme yeteneğiyle ölçülmelidir.
Sonuç: Eşitliği Tasarımın Merkezine Koymak: Dijital Geleceğin Güvencesi
YZ, insan kaynakları süreçlerini dönüştürürken büyük potansiyel taşımaktadır, ancak bu potansiyelin gerçekleşmesi, sistemin etik ve hukuki normlara uygun çalışmasıyla mümkündür. Teknolojinin, geçmişin yükünü ve önyargılarını geleceğe taşımasına izin verilmemelidir.
Kamu hukuku perspektifinden, Anayasa'nın güvence altına aldığı eşitlik ilkesi, dijital çağda da en temel hak olmaya devam etmelidir. YZ destekli İK sistemlerinin hukuki denetimi, şeffaflığı ve hesap verebilirliği sağlanmadan ne verimlilik ne de adalet tam olarak tesis edilebilir.
Dijital çağda eşitliği korumak için şeffaf, denetlenebilir ve hesap verebilir YZ sistemleri geliştirmek şarttır. Yapay zekâdan daha iyi ve adil bir gelecek inşa etmesini istiyorsak, önce onu geçmişin önyargılarından arındırılması gerektiği açık bir gerçektir.
Sorularınız mı var? Bizimle iletişime geçin.
İletişime Geç