Teknoloji hayatımıza her geçen gün daha fazla nüfuz ederken, algoritmalar da bu sürecin vazgeçilmez bir parçası haline geldi. Algoritmalar, görünmez bir şekilde günlük yaşantımızın neredeyse her alanında karşımıza çıkar. Sosyal medya platformlarında hangi gönderilerin öne çıkarılacağı, online alışveriş sitelerinde hangi ürünlerin önerileceği ya da bankaların kredi başvurularını nasıl değerlendirdiği gibi süreçler, algoritmalar sayesinde işler hale gelir. Algoritmalar, karar verme süreçlerini hızlandırıp verimliliği artırırken, aynı zamanda insanların hata yapma olasılığını da azaltabilir.
Ancak algoritmaların tarafsız olduğu inancı, son yıllarda giderek daha fazla sorgulanmaya başlanmıştır. Çünkü bu algoritmalar insanlar tarafından yazılır ve onları eğitmek için kullanılan veri setleri, toplumsal önyargıları ve eşitsizlikleri yansıtabilir. Dolayısıyla, algoritmaların aldığı kararlar, tamamen objektif ya da adil olmayabilir. Bu noktada, ‘algoritmik adaletsizlik’ devreye girer. Algoritmik adaletsizlik, toplumsal önyargıların ve ayrımcılığın dijital dünyada yeniden üretilmesi anlamına gelir. Bu yazıda, algoritmaların nasıl çalıştığı, algoritmik adaletsizliğin ne olduğu, örnekleri ve bu sorunun neden önemli olduğu üzerinde duracağız.
Algoritma Nedir?
Bir algoritma, belirli bir sorunu çözmek ya da bir hedefe ulaşmak için izlenen adım adım talimatlar dizisidir. Aslında gündelik hayatımızda farkında olmadan birçok algoritma kullanırız. Örneğin, yemek yaparken bir tarif izlediğinizde, her adım belirli bir sıraya göre düzenlenmiş talimatlardan oluşur. Bu talimatlar, algoritmanın basit bir örneğidir.
Bilgisayar bilimlerinde ise algoritmalar çok daha karmaşık görevleri yerine getirmek için kullanılır. Örneğin, Google arama motoru, hangi sonuçların öne çıkacağını belirlemek için birçok farklı algoritma kullanır. Facebook’ta hangi arkadaşlarınızın gönderilerinin size gösterileceği veya Netflix’in size hangi filmleri önerdiği de yine bu tür algoritmalarla belirlenir. Algoritmalar, büyük veri setlerini analiz ederek, karmaşık işlemleri hızlı ve verimli bir şekilde gerçekleştirir.
Ancak algoritmaların etkinliği, onları besleyen verilere bağlıdır. Eğer bu veri setleri eksik, taraflı ya da önyargılıysa, algoritmaların üreteceği sonuçlar da bu hataları yansıtacaktır. Bu durum, algoritmaların her zaman tarafsız olmadığı anlamına gelir. Aksine, algoritmalar, veri setlerinin içindeki önyargıları ve eşitsizlikleri yeniden üretebilir.
Peki, Gelelim meselemize.. Algoritmik Adaletsizlik Nedir?
Algoritmik adaletsizlik, algoritmaların toplumsal önyargıları ve eşitsizlikleri yansıtarak adaletsiz sonuçlar üretmesi durumunu ifade eder. Bu, özellikle büyük veri setlerinin kullanıldığı algoritmalarda ortaya çıkar. Veri setlerinde yer alan tarihsel önyargılar, cinsiyet, ırk, sosyoekonomik durum gibi faktörlere dayalı ayrımcılık içeriyorsa, algoritmalar bu ayrımcılığı sürdürme potansiyeline sahiptir. Algoritmalar, insan eliyle oluşturuldukları için insan önyargılarını da dijital dünyaya taşıyabilir.
Örneğin, bir işe alım algoritması, geçmişte yalnızca beyaz adayların tercih edildiği bir veri setine dayanıyorsa, siyahi adayları sistematik olarak dışlama eğiliminde olabilir. Benzer şekilde, akademik başarı konusunda belirli ülkeden gelen başvurular daha çok öne çıkarılabilir ve bu da farklı coğrafyalardan gelen öğrencileri rekabette dezavantajlı konuma sokabilir.
Konuyu örneklendirmek için popüler platformlardan bahsedelim…
Google’ın arama algoritmaları, kullanıcıların hangi sonuçları daha fazla tıkladığını ve hangi sitelerin daha popüler olduğunu analiz ederek çalışır. Ancak bu algoritmalar, zaman zaman toplumsal önyargıları da yansıtabilir. Örneğin, bir dönem Google’da ‘CEO’ kelimesi aratıldığında, arama sonuçlarında ağırlıklı olarak beyaz erkeklerin fotoğrafları öne çıkıyordu. Bu durum, iş dünyasında tarihsel olarak beyaz erkeklerin daha fazla temsil edilmesi ve bu verilerin algoritmalar tarafından öğrenilmesiyle ortaya çıktı. Algoritma, toplumdaki cinsiyet ve ırk önyargılarını dijital dünyada yeniden üretti.
Twitter kullanıcıların hangi tweet’leri görmesi gerektiğine karar vermek için çeşitli algoritmalar kullanır. Ancak yapılan bazı araştırmalar, Twitter algoritmalarının beyaz tenli yüzleri diğerlerine göre daha sık öne çıkardığını gösteriyor. Bu durum, farklı etnik grupların platformda daha az görünmesine ve içeriklerinin daha az dikkat çekmesine yol açabilir. Algoritmalar, kullanıcı etkileşimlerini analiz ederken, farkında olmadan toplumsal önyargıları yeniden üretebilir.
Amazon, işe alım süreçlerini hızlandırmak için bir algoritma kullanıyordu. Bu algoritma, geçmişte başarılı olmuş çalışanların verilerini analiz ederek yeni başvuruları değerlendiriyordu. Ancak algoritmanın beslendiği veri seti, ağırlıklı olarak erkeklerden oluşuyordu. Sonuç olarak, algoritma erkek adayları daha başarılı olarak değerlendiriyor ve kadın adayları sistematik olarak dışlıyordu. Amazon bu problemi fark ettikten sonra algoritmayı devre dışı bıraktı. Ancak bu olay, algoritmaların toplumsal cinsiyet önyargılarını nasıl yeniden üretebildiğinin önemli bir örneğidir.
Algoritma ve sağlık konusu ciddi bir tartışma alanıdır.
Sağlık algoritmaları, cinsiyet ve ırk farklılıklarına dayalı olarak da adaletsizlikler yaratabilir. Tıbbi araştırmalarda genellikle erkek bedeninin norm olarak alınması, kadınların sağlık sorunlarının yeterince araştırılmamasına neden olmuştur. Bu durum, algoritmaların cinsiyet temelli ayrımcılığı sürdürmesine yol açabilir.
Örneğin kalp hastalıkları, genellikle erkekler üzerine yapılan araştırmalar temel alınarak tanımlandığı için, kadınlarda bu hastalıkların belirtileri sıklıkla yanlış anlaşılıyor. Birçok tanı algoritması, bu önyargıları taşır ve kadınlarda kalp krizi gibi ciddi sağlık sorunlarının belirtilerini tanımada yetersiz kalabilir. Kadınların kalp krizi riskleri erkeklere göre daha düşük hesaplanabilir, çünkü algoritmalar, erkeklerin tıbbi verilerine dayalıdır ve kadınların belirtilerini göz ardı edebilir.
ABD’de yapılan bazı araştırmalar, siyah erkeklerin beyazlara kıyasla şizofreni teşhisi alma olasılığının daha yüksek olduğunu göstermektedir. Bu durum, tarihsel olarak bu etnik grubun ruh sağlığına ilişkin yanlış ve önyargılı yaklaşımlarından kaynaklanabilir. Eğer psikiyatrik tanı algoritmaları geçmişteki bu önyargılı verilerle eğitilirse, algoritmalar da siyah erkekleri “yüksek riskli” olarak değerlendirip, yanlış teşhis oranını artırabilir.
2019’da yapılan bir çalışmada, ABD’deki bir psikiyatrik teşhis algoritmasının, siyah hastalarda yanlış tanı oranlarının beyaz hastalara göre daha yüksek olduğu ortaya çıktı. Bu algoritma, geçmiş verilerde siyah hastaların genellikle yanlış şizofreni tanısı aldığı durumlardan öğrenmişti. Bu nedenle, algoritma siyah hastalarda bu teşhisi daha sık uyguladı ve sonuç olarak bu hastalar için uygun olmayan tedavi planları yapıldı.
Peki, Tüm Bunların Felsefi Boyutu Nedir?
Algoritmik adaletsizlik, felsefi açıdan da önemli bir sorundur. Özellikle John Rawls’un Adalet Teorisi, bu bağlamda değerlendirilebilir. Rawls, bir toplumda adaletin, en dezavantajlı grupların durumunu iyileştirecek şekilde yapılandırılması gerektiğini savunur. Ancak algoritmalar, toplumdaki mevcut eşitsizlikleri yeniden ürettiğinde, bu grupların daha da dezavantajlı hale gelmesine yol açabilir.
Rawls’un ‘cehalet perdesi’ kavramı da bu tartışmada önemli bir yer tutar. Rawls, bir toplumda adil kararların, bireylerin kendi statülerini bilmedikleri bir durumda alındığında mümkün olduğunu savunur. Ancak algoritmalar, bireylerin statülerini, geçmiş verilerden öğrendikleri bilgilerle değerlendirdiği için, bu ilkeyi ihlal edebilir.
Felsefi açıdan bir diğer önemli tartışma noktası ise, algoritmaların özgürlüğe müdahalesi, bireylerin karar alma yetilerini ve seçimlerini etkileyen derin bir felsefi mesele olarak öne çıkar. Bu konu, özellikle özgür irade, özerklik ve gizli gözetim gibi temel etik kavramlarla ilişkilidir. Algoritmalar, verilerden öğrendikleri ve kullanıcı alışkanlıklarını takip ettikleri için, bireylerin özgür iradesini sınırlayabilir ve onları önceden belirlenmiş tercihlere yönlendirebilir. Bu, bireylerin dijital ortamlarda tam anlamıyla özgürce hareket edemedikleri, aksine görünmez bir yönlendirme altında oldukları anlamına gelir.
Demokrasi boyutu…
Algoritmalar, sosyal medya platformlarında da içerik önerileri ve reklamlar için kullanılıyor. Ancak bu algoritmalar, kullanıcılara daha çok ilgi duydukları ya da görüşlerine uyan içerikleri gösterme eğiliminde olduğunda, toplumda bilgi balonları (filter bubbles) yaratabilir. Bu da insanların sadece kendi görüşlerine uygun bilgileri görmesine ve karşıt görüşlerle karşılaşmamasına neden olabilir. Sosyal medya platformlarının algoritmaları, bu tür ayrışmayı hızlandırabilir.
Bu bağlamda medya platformlarının, kullanıcılarına gösterdiği içerikler, siyasi görüşlerin kutuplaşmasına yol açabilir. Bu algoritmalar, belirli görüşleri aşırı derecede ön plana çıkarabilir ve yanlış bilgi yayılmasını hızlandırabilir. Bu da toplumsal kutuplaşma artar ve sağlıklı bir demokratik diyalog zayıflar. Algoritmaların yanlış bilgi yayılmasına katkıda bulunması, toplumda güvensizlik yaratabilir.
Örneğin 2016 ABD başkanlık seçimlerinde Facebook’un kullanıcı verilerini Cambridge Analytica adlı bir firma ile paylaşması, seçim sürecini doğrudan etkilemiştir. Bu firma, kullanıcıların kişisel verilerini analiz ederek bireylerin siyasi eğilimlerini ve psikolojik profillerini belirlemiş ve bu verilere dayalı olarak kişiselleştirilmiş siyasi reklamlar oluşturmuştur. Özellikle kararsız seçmenlere yönelik yapılan bu hedefli reklamlar, algoritmaların seçmen davranışlarını manipüle etmek amacıyla kullanıldığını göstermiştir.
Cambridge Analytica, OCEAN modeli adı verilen bir psikometrik sistem kullandı. Bu model, kullanıcıların kişilik özelliklerini (Açıklık, Sorumluluk, Dışadönüklük, Uyumluluk, Duygusal Denge) analiz ederek, onların hangi tür mesajlara daha açık olduklarını anlamaya çalıştı. Örneğin, yüksek “duygusal dengesizliğe” sahip biri, korkuya dayalı mesajlardan daha fazla etkilenebilirken, yüksek “açıklık” puanına sahip biri daha entelektüel ya da ilerici mesajlara tepki verebilir.
Mesela, yüksek “açıklık” puanına sahip kişiler, politik reklamlarda daha yenilikçi ve ilerici mesajlardan etkilenebilirken, düşük açıklık puanına sahip kişiler daha muhafazakâr ve geleneksel mesajlara olumlu tepki verebilir. Ya da yüksek duygusal dengesizliğe sahip kişiler, korku ve endişe temalı mesajlardan daha fazla etkilenebilir. Örneğin, “güvenlik tehdidi” ya da “sistem çöküşü” gibi mesajlar bu kişileri harekete geçirebilir. Düşük puanlı kişiler daha dengeli, mantıklı mesajlara daha olumlu tepki verirler.
Kısacası, algoritmik adaletsizlik sadece toplumun belirli kişileri üzerindeki adaletsizliği arttırmaz; aynı zamanda demokratik süreçlerin baltalanmasına yol açar. Bu da yalnızca adalet değil, özgür irade ve otonomiye müdahale kapsamında değerlendirilecek sonuçlara yol açacaktır. Bu anlamda toplumun bu kavramlar hakkında farkındalığı, ilgili sosyal medya şirketlerini daha şeffaf şekilde çalışmaya zorlayacak ve bu da bilgi üretim ve paylaşım süreçlerinin daha adil hale gelmesini sağlayacaktır.
Kaynakça
(1) Petersen, M., et al. “Racial Bias in a Medical Algorithm Favors White Patients Over Sicker Black Patients.” Science, 2019.
(2) Schwartz, Robert C. and Blankenship, David M. “Racial disparities in psychotic disorder diagnosis: A review of empirical literature.” World Journal of Psychiatry, 2014.
(3) Rawls, John. A Theory of Justice. Harvard University Press, 1971.
(4) O’Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group, 2016.
(5) Eubanks, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press, 2018.
(6) Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press, 2018.
(7) Pasquale, Frank. The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press, 2015.
(8) Kosycarz, Arthur. “How the OCEAN Personality Model was Used in Cambridge Analytica’s Facebook Profiling.” Medium, 2018.
(9) Cadwalladr, Carole & Graham-Harrison, Emma. “Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.” The Guardian, 17 Mart 2018.