MAKALELER / Yapay Zekayı Kandırmak Mümkün





Yapay Zekayı Kandırmak Mümkün:

 

1--Yapay zekânın nasıl kandırılabileceğiyle ilgili olarak, Google araştırmacılarından Christian Szegedy ve arkadaşları tarafından 2013 yılında yayımlanan bir makalede, herhangi bir görüntü üzerinde ufak tefek oynamalar yaparak Derin sinir ağlarını yanlışa sürüklemenin mümkün olduğunu gösteriyordu.

 

1.1--Örneğin bir hayvan resmini alıp bazı piksellerde ufak, sistematik değişiklikler yaparak yapay zekâyı gördüğünün aslında bir araba fotoğrafı olduğuna ikna etmek mümkündü. Üstelik bu durum belirli bir yapay zekâ uygulamasının eğitimindeki eksikliklerden de kaynaklanmıyordu. Üzerinde oynamalar yapılmış resim, tamamen farklı verilerle eğitilmiş herhangi başka bir yapay zekâ uygulaması tarafından da yanlış sınıflandırılıyordu.

 

1.2--Anh Nguyen, Jason Yosinski ve Jeff Clune, yapay zekâya olmayan şeyleri gördürmenin de mümkün olduğunu gösterdi. Örneğin derin öğrenme ile eğitilmiş yapay zekâ uygulamaları, soyut dalgalı çizgilerin içinde elektronik gitarlar ya da tamamen parazitli (her bir pikseli rastgele renklere boyanmış) resim dosyalarının içinde tavus kuşları görebiliyordu.

 

2--Daha sonraları DNN’lerin yaptığı farklı türlerde başka hatalar da keşfedildi. Örneğin Anh Nguyen ve arkadaşları bir görüntüdeki nesneleri döndürmenin yapay zekâyı yanıltmak için yeterli olduğunu gösterdi. Örneğin yapay zekâ uygulamaları farklı açıdan çekilmiş “Dur” işareti levhalarını gülle ya da raket olarak sınıflandırabiliyordu.

 

2.1--Dan Hendrycks ve arkadaşları üzerinde hiçbir oynama yapılmamış, tamamen doğal görüntülerin bile iyi eğitilmiş yapay zekâ uygulamaları tarafından yanlış sınıflandırılabileceğini gösterdi. Örneğin yusufçuk böceğini rögar kapağı ya da mantarı çubuk kraker olarak sınıflandırmak gibi.

 

 3--Yapay zekâ uygulamalarının yaptığı hatalar sadece görün¬tü tanımayla ilgili değil. Verileri sınıflandırmak için derin sinir ağları kullanan herhangi bir yapay zekâ uygulamasını kandırmak da mümkün. Örneğin Sandy Huang ve arkadaşları, 2017 yılında, görüntülerdeki birkaç pikselde ufak tefek değişiklikler yaparak Atari oyunları oynamak için eğitilmiş DNN'lere oyun kaybettirmeyi başardı.

 

4-- Hangi haberin öne çıkarmaya değer olduğuna, kimin suç işleyebileceğine, gelecekte hangi öğrencinin başarılı olacağına, kaza anında kimin hayatının kurtarılması gerektiğine, evlenmek için en ideal kişinin kim olduğuna, kimin tutuklu, kimin tutuksuz yargılanacağına, gelecek yılki bütçenin nereye harcanacağına, hangi akademik çalışmalara destek olunacağına, hangi şehirdeki çiftçinin hangi tohumu kullanarak hangi ürünü ekmesi gerektiğine yapay zekâ karar verecekse yapay zekânın dayandığı yazılım algoritmaları konusunda insanların da söz sahibi olması gerekir.

 

4.1--Birçok üniversiteden ve yapay zekâ laboratuvarından bilim insanının ve araştırmacının birlikte yayımladığı bir makalede yapay zekâ algoritmalarının adil, mahremiyete saygılı, ayrımcılık yapmayan ve güvenli kararlar alması için izlenmesi gereken adımlar değerlendiriliyor. Uzmanlar bu konuda bir çalışma yapılması ve izlenecek yolun bir an önce belirlenmesi gerektiğine dikkat çekiyor. Kim bilir belki de gelecekte bizi yönetecek insanları değil hayatımızı yönlendirecek algoritmaları oylacağız.

 

4—Yorum:Sonuç olarak yapay zeka konular-örüntüler vs arasında matematik dil kullanırsak enterpolasyon yapıyor .Bu durum enterpolasyonun mantıklı olduğu anlamına gelmiyor.Herhalükarda bunu mantık süzgecinden bir uzmanın geçirmesine gerek olmakta herhalde.

 

4.1--Bu anlamda bir uzman tarafından Mantık-yorum-muhakeme süreçlerine sokmadan yapay zekanın direk olarak ham haliyle kullanılması mümkün olmayabilir.

 

 




Makalenin İzlenme Sayısı : 154

Eklenme Tarihi : 21.06.2022

Önceki sayfaya geri dön.