Bir iş arayın. Müşteri hizmetlerine şikayette bulunun. Bir kredi veya diğer bankacılık ürünü hakkında bilgi verin. Uçak veya otel bileti rezervasyonu yapın. Sosyal medyanıza girdiğinizde gördüğünüz haberler, bilgiler, reklamlar… Algoritmalar, sonsuz günlük işlerin arkasında ve hayal ettiğimizden daha fazla sektörde yer alıyor ve algoritmik önyargı olarak bilinen bir olguya yol açıyor.

Bunlar, biz fark etmeden dünyayı giderek daha fazla yönlendiren sessiz mekanizmalardır. Ve hepsinden çarpıcı olanı, onlara sağladığımız verilerle giderek daha etkili olmayı öğrenmeleridir. Sürekli olarak “kullanıcı” olarak kodlanan insana uyum sağlıyorlar ve çabayı minimuma indirecek şekilde giderek kişiselleşen, hızlı ve tatmin edici bir deneyim sunmaya çalışıyorlar.

Dokunaçları flört uygulamalarına ulaşıyor ve hatta tercihlerimize dayalı olduğu iddia edilen bir dizi çok özel adayı bize sunarak partner seçimimize aracılık bile edebiliyor. Dijital dünyaya yapılan bu girişim, algoritmik önyargının siyasi kararlarımızı bile etkilediğine inanılıyor…

Algoritmik önyargı nedir?

Algoritmalar hayatımızı kolaylaştırabilir. Örneğin bir doğa aşığı ve çevre savunucusuysanız, sosyal medyada bu konuyla ilgili giderek daha fazla bilgi bulmanız çok muhtemeldir. Bu mutlaka kötü bir şey değil elbette. Ancak endişeleriniz tamamen sağlıklı olmadığında işler değişir.

Molly Russell’ın korkunç vakasını unutmayalım. Bu genç intiharla ilgili konular arıyordu ve bir zaman geldi ki sosyal ağlarının ona gösterdiği her şey bu temayla ilgili içerikti. Neredeyse farkına bile varmadan, diğer trendlerin ve çeşitli içeriklerin artık içeri girmediği bir bilgi balonunun içinde tutsak kalabiliriz.

Algoritmik önyargı, günlük hayatımıza sızan ve bize neredeyse hiçbir zaman tarafsız olmayan verileri ısrarla sunan rahatsız edici bir kod nedeniyle aldığımız bilgiler ve aldığımız kararlar üzerindeki yanlış kontrol duygumuzu ifade eder. Ancak şunu da unutmayalım ki, neredeyse her zaman gizli çıkarlar vardır.

Siz karar vermiyorsunuz; algoritma sizin yerinize karar veriyor

Yapay zekanın normalleşmesinde giderek daha sık gördüğümüz bir olgu var. Yapay zeka bize sahte bir kontrol ve öz yeterlilik duygusu veriyor. Tezlerimizde, akademik çalışmalarımızda, bitmek bilmeyen günlük işlerimizde bize yardımcı olacak ChatGPT kullanımı normalleştiğinde bu duygu çok daha artacaktır.

Kendimizi daha verimli hissedeceğiz ama gerçekte bizi ilgilendiren görevleri yerine getirecek olan o chatbot olacak. Bu her zaman olumsuz değildir ancak yukarıda bahsedilen algoritmik önyargıyı artırır. Yani öyle olmadığı halde hiçbir müdahale olmadan karar verip hareket ettiğimiz algısı.

Algoritmalar adil değil

Cathy O’Neil, Weapons of Mathematical Destruction (2016) adlı çok popüler bir kitap yazan bir matematikçidir. Bu yazıda algoritmaları “kitle imha silahları” olarak tanımladı. Yeni başlayanlar için, bu hesaplamalı değerler ahlaki ve kültürel önyargılardan muaf değil, bunların ardındaki çıkarlardan bahsetmeye bile gerek yok.

Kitapta, bir öğretmenin algoritma tarafından olumsuz değerlendirilmesi sonucu işten atılan bir öğretmenin durumunu anlatıyor. Bu değerlendirmede kişisel mesajlardan, tıbbi raporlardan ve daha fazlasından elde edilen veriler analiz edildi. Aynı şey ipotek veya yardım tahsisi değerlendirilirken de olur. Örneğin belirli etnik gruplar her zaman dezavantajlı durumda olacaktır.

Ancak çoğu şirket ve kuruluş bu hızlı analizleri doğrulamaktadır. Algoritma önyargısı, onları, bir algoritmanın analiz ettiği şeyin adil olmasa bile her zaman geçerli olacağı sonucuna varmaya yönlendiriyor ve çoğu zaman bu veriler kişisel olarak derlenmiyor bile.