Veri ve makine öğrenimi algoritmalarından elde edilen bilgiler paha biçilmez olabilir, ancak hatalar itibarınıza, gelirinize ve hatta hayatınıza mal olabilir. Bu yüksek profilli analizler ve yapay zeka hataları neyin yanlış gidebileceğini göstermektedir.

The Economist , 2017’de petrolden ziyade verilerin dünyanın en değerli kaynağı haline geldiğini açıkladı. Her sektördeki kuruluşlar, veri ve analitiğe yoğun bir şekilde yatırım yaptı ve yatırım yapmaya devam ediyor. Ancak petrol gibi, veri ve analitiğin de karanlık tarafları var.

IDG’nin State of the CIO 2020 raporuna göre, BT liderlerlerinin yüzde 37’si, bu yıl kuruluşlarında en fazla BT yatırımının veri analitiğinin sağlayacağını söylüyor. Makine öğrenimi algoritmaları tarafından yönlendirilen analitik ve eylemlerden elde edilen iç görüler, kuruluşlara rekabet avantajı sağlayabilir, ancak itibar, gelir ve hatta yaşam açısından hatalar çok pahalıya patlayabilir.

Verileriniz size neleri anlatmak istediği çok önemlidir, ancak hangi amaçla kullanacağınızı anlamak, verilerinizin neler olduğunu bilmek ve kuruluşunuzun değerlerini sağlam bir şekilde aklınızda tutmanız daha da önemlidir.

İşte neyin yanlış gidebileceğini göstermek için son on yıldaki bir avuç yüksek profilli analitik ve yapay zeka hatası.

İngiltere, Excel Veri Sınırını Aşarak Binlerce COVID-19 Vakasının Verisini Kaybetti

Ekim 2020’de, yeni COVID-19 enfeksiyonlarını değerlendirmekten sorumlu Birleşik Krallık hükümetine bağlı firma Public Health England (PHE), 25 Eylül ile 2 Ekim arasında yaklaşık 16.000 korona virüs vakasını bildirilmediğini ortaya çıkardı. Peki suçlu kim? Microsoft Excel’deki veri sınırlamaları.

Public Health England firması, COVID-19 pozitif, laboratuvar sonuçlarını bir CSV (Excel) dosyası olarak, raporlama panoları tarafından ve temas takibi için kullanılan Excel şablonlarına aktarmak için otomatik bir işlem kullanır. Ne yazık ki, Excel elektronik tabloları çalışma sayfası başına en fazla 1.048.576 satır ve 16.384 sütun içerebilir bu sayı yetmeyince olanlar oluyor. Dahası, PHE vakaları satırlar yerine sütunlar halinde listeliyordu. Vakalar 16.384 sütun sınırını aştığında, Excel alttaki 15.841 kaydı kesti.

Sağlık Algoritması Siyahi Hastaları İşaretleyemedi

2019’da Science’ta yayınlanan bir araştırma , ABD’deki hastaneler ve sigorta şirketleri tarafından “yüksek riskli bakım yönetimi” programlarına ihtiyaç duyan hastaları belirlemek için kullanılan bir sağlık tahmini algoritmasının Siyahi hastaları ayırma olasılığının çok daha düşük olduğunu ortaya koydu.

Yüksek riskli bakım yönetimi programları, ciddi komplikasyonları önlemek için kronik hastalığı olan hastalara eğitimli hemşirelik personeli ve birinci basamak izleme sağlar. Ancak algoritmanın bu programlar için siyahi hastalara göre beyaz hastaları önerme olasılığı çok daha yüksekti.

Veri kümesi, Microsoft’un Irkçı Chatbot’u ; Yapay Zeka Hataları

Mart 2016’da Microsoft, makine öğrenimi algoritmaları için eğitim vererek. Twitter etkileşimlerinin kullanmanın ürkütücü sonuçlar doğurabileceğini öğrendi.

Microsoft, sosyal medya platformunda bir AI sohbet robotu olan Tay’ı yayınladı. Şirket bunu “konuşmayı anlamada” bir deney olarak tanımladı.

16 saat içinde, chatbot 95.000’den fazla tweet attı ve bu tweetler hızlı ve açık bir şekilde ırkçı, kadın düşmanı ve anti-Semitik oldu. Microsoft, ayarlamalar için hizmeti hızla askıya aldı ve sonunda fişi çekti.

Amazon Yapay Zeka Destekli İşe Alım Aracı Erkekleri Öneriyor

yapay zeka hataları
yapay zeka

Birçok büyük şirket gibi Amazon da, İK işlevinin uygulamalarını en iyi adayları taraması için yardımcı olacak araç oluşturdu. Amazon, 2014 yılında tam da bunu yapmak için yapay zeka destekli işe alma yazılımı üzerinde çalışmaya başladı.

Tek bir sorun vardı: Sistem büyük ölçüde erkek adayları tercih ediyordu. Reuters, 2018’de Amazon’un projeyi hurdaya çıkardığı haberini verdi .

Amazon’un sistemi adaylara 1’den 5’e kadar yıldız derecelendirmesi verdi. Ancak sistemin merkezindeki makine öğrenimi modelleri, çoğu erkeklerden olmak üzere Amazon’a gönderilen 10 yıllık öz geçmişler üzerinde eğitildi. Bu eğitim verilerinin bir sonucu olarak, sistem öz geçmişte “kadın” kelimesini içeren ifadeleri cezalandırmaya başladı ve hatta tamamı kadın kolejlerden adayları düşürdü.

Kaynak

Author

2017 yılından itibaren makale yazarlığı ve web site yöneticiliği yapan sıradan bir insanım.

Write A Comment