Yapay Zeka Tehlikesi Uzmanları Telaşa Soktu - Unimetre

Yapay Zeka Tehlikesi Uzmanları Telaşa Soktu


yapay zeka

Füzeye dönüştürülmüş insansız hava araçları, kamuoyunu manipüle eden sahte videolar ve otomatikleştirilmiş bilgisayar korsanlığı… Uzmanlara göre bunlar yanlış ellere düşen yapay zeka oluşumunun tehlikelerden sadece üçü.

Yapay zeka oluşumunda, uluslararası güvenlik uzmanları bu oluşumun kötü niyetle kullanıldığında oluşturabileceği tehlikeler hakkında bir rapor yayımladı.

100 sayfalık raporda, yapay zekayı tasarlayanlar, teknolojinin kötüye kullanımını engellemek için daha fazla çaba sarfetmeleri konusunda uyarılıyor.


Raporda, hükümetlerin bu konuda yapabilecekleri de sıralanıyor:

Kanun koyucular ve teknik araştırmacılar, yapay zekanın kötüye kullanımının açacağı sorunları anlamak ve buna karşı hazırlanmak için birlikte çalışmalılar
Yapay zeka olumlu amaçlar için kullanılabilse de, gerçekte iki taraflı bir teknoloji olduğunun farkına varılmalı ve yapay zeka araştırmacıları ve mühendisleri dikkatli olmalı ve kötüye kullanılma ihtimalini önceden göz önünde bulundurmalı
Bilgisayar güvenliği gibi, uzun zamandır çift yönlü riskleri olan disiplinlerden ders çıkarmalılar
Yapay zekanın kötüye kullanılmasının oluşturacağı tehditleri önlemek ve azaltmak konusunda daha fazla çıkar grubu harekete geçmeli

Cambridge Üniversitesi Varoluşsal Risk Araştırması Merkezi’nden Shahar Avin BBC’ye yaptığı açıklamada, raporda yapay zekanın uzak bir geleceğe dair ortaya koyduğu tehditlerden ziyade, şu an getirdiği ya da önümüzdeki beş yıl içinde getirebileceği tehditlerin ele alındığını söyledi.

Yakın zamandaki tehlikeler

Yapay zekada özellikle endişe verici olan, rehberlik eden ya da bir insan örneği olmadan, insanüstü seviyelerde zekaya sahip olacak şekilde eğitilmeleri.

Shahar Avin, yakın gelecekte yapay zekanın kötü amaçlı kullanılabileceği muhtemel birkaç senaryoyu sıraladı:

Google’un yapay zeka şirketi DeepMind tarafından geliştirilen ve zekasıyla rakiplerini alt eden AlphaGo oyunu, bilgisayar korsanları tarafından verilerde yeni örüntüleri ve kodlardan yararlanmanın yeni yollarını bulmak için kullanılabilir
Kötü niyetli bir kişi bir insansız hava aracı satın alarak, belirli bir kişiyi hedef alması için onu yüz tanıma yazılımıyla eğitebilir
Bot’lar otomatikleştirilebilir ya da sahte videolar siyasi manipülasyon için kullanılabilir
Bilgisayar korsanları hedeflerin kimliğine bürünmek için ses sentezini kullanabilir

Oxford Üniversitesi İnsanlığın Geleceği Enstitüsü’nden araştırmacı Miles Brundage şöyle diyor:

“Yapay zeka vatandaşlar, organizasyonlar ve devletler için risklerin büyüklüğünü değiştirecek. Suçlular makineleri hecklemek ya da şifre çalmak üzere insan kapasitesi seviyesinde eğitebilir ya da gözetleme, fişleme ve baskı amacıyla kulanılabilir. Güvenlik üzerindeki etkileri çok büyük.”

Genellikle yapay zeka sistemleri sadece insan seviyesinde performansa ulaşmıyor, aynı zamanda onu önemli ölçüde aşıyor.

“Hackleme, gözetim, ikna ve fiziki hedef tanımlamanın insanüstü seviyede yapılabilecek olduğunu düşünmek rahatsız edici ama gerekli. İnsan seviyesine ulaşmamış yapay zekanın insanlardan daha fazla geliştirilebilecek olması da aynı şekilde.”

İnsanlığın Geleceği Enstitüsü Müdürü Doktor Seán Ó hÉigeartaigh tehditlerin gerçek olduğuna dikkat çekiyor ve dünya çapında hükümetleri, kurumları ve insanları harekete geçmeye çağırıyor.

  Geleceğin Teknolojisi: Çocuklarla Beraber Büyüyen Kıyafetler


Arkadaşlarınla paylaş

0
Biçim Seç
Personel test
Kişilik hakkında bir şey ortaya koymayı amaçlayan sorular dizisi
Test
Bilgiyi kontrol etmek isteyen doğru ve yanlış cevaplı sorular dizisi
Anket
Bir Olayı veya Görseli oylamaya sunmak için
İçerik
Gömülü ve Görsellerle içerik paylaşma
Liste
Klasik listeler oluşturun
Geri Sayım Listeleri
Klasik geri sayım listesi oluşturun
Açık Liste
Kendi öğenizi gönderin ve en iyi sunum için oy verin
Oylama Listesi
En iyi liste ögesisin belirlemek için oylamaya sunun
Meme
Özel memeler yapabilmek için kendi resimlerinizi yükleyin
Resim
Fotoğraf veya GIF
Gif
GIF formatı