Öne Çıkanlar Son Dakika Haberleri Finans Sinema Döviz Borsa

Bu haber kez okundu.

Yapay Zeka Teknolojisi Açık Verdi

Bilim insanları yapay zeka teknolojisinin açığını buldu. Yapılan araştımalar, yapay zekanın bir okul otobüsünü devekuşu, kaplumbağayı tüfek, kediyi köpek olarak algılayabileceğini ortaya koydu.

YAPAY ZEKA YANILDI

Deneyler,  Japon bilim insanlarının yapay zekaya dayanan görüntü tanımlama sistemini yanıltması ile başladı. Kyushu Üniversitesi"nden Su Jiawei ve meslektaşları, birçok fotoğrafta ufak değişiklikler yaptılar. Bu fotoğraflar daha sonra görüntü tanımamlama sistemi tarafından analiz edildi.

SİSTEM FARKLI ÖRNEKLERİ KARŞILAŞTIRARAK ÖĞRENİYOR

Test edilen bütün sistemler derin sinir ağları denilen bir yapay zeka çeşidi etrafında kuruluydu. Sinir ağları temelli öğrenme sistemi, tipik olarak çok sayıda devre arasında bağ kurulmasını içeriyor - beyindeki sinir hücreleri gibi. Bu sistemler, objelerin tipik olarak birbirinden nasıl farklılaştığını, pek çok farklı örneği karşılaştırarak öğreniyorlar.

FOTOĞRAFIN PİKSELİ DEĞİŞİNCE YAPAY ZEKA YANLIŞ ALGILIYOR

Araştırmacılar, bir fotoğrafın yüzde 74"ünde bir pikseli değiştirmenin, yapay zekanın gördüğünü yanlış algılamasına neden olduğunu buldular. Bazı hatalar çok da büyük değildi. Örneğin kedi, köpekle karıştırıldı. Ancak bazıları oldukça şaşırtıcıydı. Örneğin hayalet uçak, köpek sanıldı.

YAPAY ZEKANIN GÖRÜNTÜ KABİLİYETİNİ TEST EDİYORLAR

Massachusetts Teknoloji Enstitüsü"nden (MIT) araştırmacılar deneyleri bir adım ileriye götürerek üç boyutlu baskılar kullandı. Bu ekipte yer alan  Massachusetts Teknoloji Enstitüsü"nden (MIT) Anish Athalye, dünya çapında araştırmacıların yapay zeka temelli görüntü tanımlama sisteminin zayıflığını ortaya koymak için deneyler yaptıklarını söylüyor.

KAPLUMBAĞAYI TÜFEK OLARAK GÖRDÜ

Athalye ve iş arkadaşlarının yaptığı deneylerde üç boyutlu bir kaplumbağa, tüfek olarak algıladı. Athalye BBC"ye yaptığı açıklamada "Giderek artan sayıda gerçek dünyada kullanılan sistemler sinir ağlarını kullanmaya başlıyorlar ve bu sistemlere yanıltıcı örneklerle saldırı düzenlemek mümkün" diyor.

"SİSTEMLERİN KANDIRILABİLMESİ ENDİŞE VERİCİ"

Şimdiye kadar böyle bir olay gerçekleşmese de, Athalye bu akıllı sistemlerin çok kolay bir şekilde kandırılabilmelerinin endişe verici olduğunu söylüyor. Athalye, derin sinir ağlarını bu tür yanıltmalardan korumanın zor olduğunu söylüyor ve devam ediyor: Bu çözülememiş bir sorun. Önerilen çok fazla sayıda teknik oldu ve hemen hepsi işe yaramaz çıktı.

Facebook, Amazon ve  Google gibi internet devlerinin bu tür çarpıtmalarla baş etme yöntemleri üzerinde çalıştıkları biliniyor.

Dikkat!

Yorum yapabilmek için üye girşi yapmanız gerekmektedir. Üye değilseniz hemen üye olun.

Üye Girişi Üye Ol

banner56

banner73

banner57

banner74