Bilim adamları yapay zeka tehdidinden korkuyor

Bilim adamları yapay zeka tehdidinden korkuyor
Bilim adamları yapay zeka tehdidinden korkuyor

Video: Bilim adamları yapay zeka tehdidinden korkuyor

Video: Bilim adamları yapay zeka tehdidinden korkuyor
Video: 1. DÜNYA SAVAŞINA OSMANLI KATILMASAYDI ? | Animasyonlu Hızlı Anlatım 2024, Aralık
Anonim

Kendini geliştiren yapay zeka (AI), gelecekte isterse insanları köleleştirebilir veya öldürebilir. Bu, özgür düşünceli ve son derece zeki bir bilincin geliştirilmesinden kaynaklanan risklerin çok yüksek olduğuna inanan bilim adamı Amnon Eden tarafından söylendi ve "eğer mevcut aşamada AI kontrolü sorunlarıyla ilgilenmezseniz. geliştirme, o zaman yarın gelmeyebilir." Express'in İngilizce baskısına göre, Amnon Eden'e göre insanlık, ünlü film destanı "Terminatör"ün arsasının uygulanması için bugün "geri dönüşü olmayan noktada".

Dr. Amnon Eden'in asıl amacı yapay zekanın potansiyel yıkıcı etkilerini analiz etmek olan bir proje lideri olduğunu belirtmekte fayda var. Bilim adamı, yapay zeka yaratmanın sonuçlarının doğru bir şekilde anlaşılmaması durumunda gelişiminin felaketle tehdit edebileceğine inanıyor. Şu anda toplumumuz, bilim camiasında AI'nın potansiyel etkisinin analizi hakkında devam eden tartışmalar hakkında yeterince bilgi sahibi değil. Eden, "Önümüzdeki 2016'da, şirketlerin ve hükümetlerin, politikacıların ve karar vermekten sorumlu kişilerin düşüncelerinde olası risklerin analizinin önemli ölçüde daha yaygın hale gelmesi gerekecek" diyor.

Bilim adamı, insanlığın robotlar tarafından yok edilmesini anlatan bilim kurgunun, yapay zeka yaratma süreci kontrolden çıktığı için yakında ortak sorunumuz olabileceğinden emin. Örneğin Elon Musk, girişimci Sam Altman'ın desteğiyle, insan aklını aşması gereken açık kaynaklı yapay zeka geliştiren 1 milyar dolarlık yeni bir kar amacı gütmeyen kuruluş yaratmaya karar verdi. Aynı zamanda, Amerikalı milyarder Elon Musk, yapay zekayı "varlığımıza yönelik en büyük tehditler" arasında sıralıyor. Apple'ın kurucularından Steve Wozniak, geçen Mart ayında "gelecek insanlar için göz korkutucu ve çok tehlikeli görünüyor… sonunda bilgisayarların bizden daha hızlı düşüneceği ve yavaş insanlardan kurtulacakları gün gelecek" dedi. Böylece şirketler daha verimli çalışabilsin."

resim
resim

Birçok bilim insanının AI tehdidini gördüğünü belirtmekte fayda var. Faaliyetleri şu ya da bu şekilde yapay zekanın gelişimi ile ilgili olan düzinelerce tanınmış bilim insanı, yatırımcı ve girişimci, iş güvenliği ve sosyal fayda konusuna daha fazla dikkat gösterilmesini isteyen bir açık mektup imzaladı. AI alanı. Astrofizikçi Stephen Hawking ve Tesla ve SpaceX'in kurucusu Elon Musk bu belgeye imza atanlar arasında. Mektup, Yaşamın Geleceği Enstitüsü (FLI) tarafından hazırlanan beraberindeki bir belgeyle birlikte, yapay zekanın işgücü piyasası üzerindeki etkisi ve hatta tüm insanlığın uzun vadede hayatta kalması konusundaki artan endişeler arasında yazılmıştır. robotların ve makinelerin yeteneklerinin neredeyse kontrolsüz bir şekilde büyüyeceği ortam.

FLI mektubu, bilim adamlarının bugün AI'nın potansiyelinin çok büyük olduğu gerçeğini anlıyorlar, bu nedenle eşlik eden tuzaklardan kaçınmak için bizim için en uygun kullanım olanaklarını tam olarak araştırmak gerekiyor, diyor FLI mektubu. İnsan yapımı yapay zeka sistemlerinin tam olarak bizim onlardan yapmalarını istediğimiz şeyi yapması zorunludur. Yaşamın Geleceği Enstitüsü'nün, aralarında Skype'ın yaratıcısı Jaan Tallinn'in de bulunduğu bir dizi meraklı tarafından, "insanlığın karşı karşıya olduğu riskleri en aza indirmek" ve "iyimser bir vizyonla araştırmayı teşvik etmek" için yalnızca geçen yıl kurulduğunu belirtmekte fayda var. geleceğin". Her şeyden önce, burada yapay zeka ve robotik gelişiminin neden olduğu risklerden bahsediyoruz. FLI Danışma Kurulu, Musk ve Hawking'in yanı sıra ünlü aktör Morgan Freeman ve diğer ünlü kişileri içerir. Elon Musk'a göre, yapay zekanın kontrolsüz gelişimi potansiyel olarak nükleer silahlardan daha tehlikeli.

Ünlü İngiliz astrofizikçi Stephen Hawking, 2015'in sonunda yapay zeka teknolojilerini reddetmesini açıklamaya çalıştı. Onun görüşüne göre, zamanla süper akıllı makineler insanlara, görevlerinin çözümüne basitçe müdahale eden sarf malzemeleri veya karıncalar olarak bakacak. Reddit portalının kullanıcılarıyla konuşan Stephen Hawking, bu tür süper akıllı makinelerin entelektüel üstünlükleri nedeniyle tüm insanlığı yok etmek isteyen "kötü yaratıklar" olacağına inanmadığını kaydetti. Büyük olasılıkla, insanlığı fark etmeyecekleri gerçeğinden bahsetmek mümkün olacaktır.

resim
resim

“Medya son zamanlarda sözlerimi sürekli çarpıtıyor. Yapay zekanın geliştirilmesindeki ana risk, makinelerin kötülüğü değil, yetkinliğidir. Süper akıllı yapay zeka mükemmel bir iş çıkaracak, ancak bu ve hedeflerimiz örtüşmezse, insanlığın çok ciddi sorunları olacak” diye açıklıyor ünlü bilim adamı. Örnek olarak, Hawking, yeni bir hidroelektrik barajın işletilmesinden veya inşasından süper güçlü bir yapay zekanın sorumlu olduğu varsayımsal bir durumu gösterdi. Böyle bir makine için öncelik, emanet edilen sistemin ne kadar enerji üreteceği olacak ve insanların kaderi önemli olmayacak. “İçimizde öfkeden karınca yuvalarını çiğneyen ve karıncaların üzerine basan çok az kişi var, ama bir durum hayal edelim - elektrik üreten güçlü bir hidroelektrik santralini kontrol ediyorsunuz. Su seviyesini yükseltmeniz gerekiyorsa ve eylemlerinizin bir sonucu olarak bir karınca yuvası sular altında kalacaksa, boğulan böceklerin sorunlarının sizi rahatsız etmesi pek olası değildir. İnsanları karıncaların yerine koymayalım” dedi.

Hawking'e göre yapay zekanın daha da geliştirilmesi için ikinci potansiyel sorun, "makine sahiplerinin zulmü" olabilir - üretimi tekelleştirebilecek zengin insanlar arasındaki gelir düzeyindeki uçurumun hızlı büyümesi. akıllı makinelerin ve dünya nüfusunun geri kalanının. Stephen Hawking, bu olası sorunları şu şekilde çözmeyi önermektedir - AI geliştirme sürecini yavaşlatmak ve "evrensel" değil, yalnızca çok sınırlı bir dizi sorunu çözebilen son derece uzmanlaşmış yapay zekanın gelişimine geçmek.

Mektup, Hawking ve Musk'a ek olarak, Nobel ödüllü ve MIT fizik profesörü Frank Wilczek, Makine Zekası Araştırma Enstitüsü (MIRI) Luc Mühlhauser'in yanı sıra büyük BT şirketlerinden birçok uzman tarafından imzalandı: Google, Microsoft ve IBM'in yanı sıra yapay zeka şirketleri Vicarious ve DeepMind'ı kuran girişimciler. Mektubun yazarları, halkı korkutmayı amaçlamadıklarını, yapay zekanın yaratılmasıyla ilişkili hem olumlu hem de olumsuz yönleri vurgulamayı planladıklarını belirtiyorlar. Mektupta, "Şu anda, AI alanındaki araştırmaların istikrarlı bir şekilde ilerlediği ve AI'nın modern insan toplumu üzerindeki etkisinin yalnızca artacağı konusunda herkes hemfikir" diyor mektup, "insanlara açılan fırsatlar muazzam, modern uygarlığın sunduğu her şey. sunması gereken zeka tarafından yaratılmıştır. İnsan zekası yapay zeka ile çoğaltılabilirse neler başarabileceğimizi tahmin edemiyoruz, ancak yoksulluk ve hastalıktan kurtulma sorunu artık sonsuz derecede zor değil.”

resim
resim

Görüntü ve konuşma tanıma sistemleri, insansız araçlar ve çok daha fazlası dahil olmak üzere yapay zeka alanındaki sayısız gelişme modern hayata dahil edilmiştir. Silikon Vadisi gözlemcileri, şu anda bu alanda 150'den fazla girişimin uygulandığını tahmin ediyor. Aynı zamanda, bu alandaki gelişmeler giderek daha fazla yatırım çekiyor ve Google gibi daha fazla şirket projelerini yapay zekaya dayalı olarak geliştiriyor. Bu nedenle, mektubun yazarları, gözlemlenen patlamanın insan yaşamının ekonomik, sosyal ve yasal yönleri için olası tüm sonuçlarına daha fazla dikkat etme zamanının geldiğine inanıyor.

Yapay zekanın insanlar için tehlike oluşturabileceği pozisyonu, antropik ilke üzerine yaptığı çalışmalarla tanınan Oxford Üniversitesi'nde profesör olan Nick Bostrom tarafından paylaşılıyor. Bu uzman, AI'nın insanlarla uyumsuzluğunun izleyeceği bir noktaya geldiğine inanıyor. Nick Bostrom, hükümetlerin kontrol etmek için yeterli fon ayırdığı genetik mühendisliği ve iklim değişikliğinin aksine, "AI'nın evrimini kontrol etmek için hiçbir şey yapılmadığını" vurguluyor. Profesöre göre, şu anda yapay zeka ile ilgili olarak "doldurulması gereken bir yasal boşluk politikası" izleniyor. Kendi kendine giden arabalar gibi zararsız ve kullanışlı görünen teknolojiler bile bir takım soruları gündeme getiriyor. Örneğin böyle bir arabanın yolcularını kurtarmak için acil fren yapması gerekir mi ve insansız bir aracın kaza yapması durumunda sorumlu kim olacak?

Potansiyel riskleri tartışan Nick Bostrom, "bilgisayarın insanlara fayda ve zararlarını belirleyemediğini" ve "insan ahlakı hakkında en ufak bir fikre bile sahip olmadığını" kaydetti. Ek olarak, bilgisayarlarda kendini geliştirme döngüleri, bir kişinin takip edemeyeceği bir hızda gerçekleşebilir ve bu konuda da neredeyse hiçbir şey yapılamaz, diyor bilim adamı. Nick Bostrom, bir bilgisayar için basit bir olası çözümü örnek olarak göstererek, “Bilgisayarların kendi kendilerine düşünebildiği geliştirme aşamasında, bunun kaosa mı yol açacağını yoksa dünyamızı önemli ölçüde iyileştirip iyileştirmeyeceğini kimse kesin olarak tahmin edemez” dedi. soğuk iklime sahip ülkelerde insanların sağlığını iyileştirmek ve dayanıklılıklarını artırmak için "yapay zekanın başına gelebilecek" ısıtma.

resim
resim

Ayrıca Bostrom, biyozekamızı artırmak için insan beynini parçalama sorununu da gündeme getiriyor. “Böyle bir prosedür, tüm süreçler kontrol edilirse birçok yönden faydalı olabilir, ancak implante edilen çip kendini yeniden programlayabilirse ne olur? Bu ne gibi sonuçlara yol açabilir - bir süpermen'in ortaya çıkmasına veya sadece bir insan gibi görünecek bir bilgisayarın ortaya çıkmasına?" - profesör sorar. Bilgisayarların insan sorunlarını çözme şekli bizimkinden çok farklı. Örneğin, satrançta insan beyni, bunlardan en iyi seçeneği seçerek yalnızca dar bir dizi hamleyi dikkate alır. Buna karşılık, bilgisayar en iyisini seçerek olası tüm hareketleri dikkate alır. Aynı zamanda bilgisayar oyun içerisinde rakibini üzmeyi veya şaşırtmayı da beklemiyor. Satranç oynayan bir insandan farklı olarak, bir bilgisayar kurnaz ve incelikli bir hamleyi ancak kazara yapabilir. Yapay zeka en iyi şekilde hesaplayabilir - "insan faktörünü" oradan kaldırarak herhangi bir sistemdeki hatayı ortadan kaldırmak için, ancak bir insandan farklı olarak bir robot, insanların hayatını kurtaracak özellikleri gerçekleştirmeye hazır değildir.

Diğer şeylerin yanı sıra, akıllı makinelerin sayısındaki artış, yeni bir sanayi devriminin aşamasını temsil ediyor. Bu da yakın gelecekte insanlığın kaçınılmaz sosyal değişimlerle karşı karşıya kalacağı anlamına geliyor. Zamanla, neredeyse tüm basit görevler robotlar ve diğer mekanizmalar tarafından üstlenilebileceğinden, iş yüksek nitelikli uzmanların çoğu haline gelecektir. Bilim adamları, gezegenimizin robotların yaşadığı bir karikatür gezegeni "Zhelezyaka"ya dönüşmemesi için yapay zekanın "bir göze ve göze ihtiyacı olduğuna" inanıyor.

Üretim süreçlerinin giderek daha fazla otomasyonu açısından gelecek zaten geldi. Dünya Ekonomik Forumu (WEF), otomasyonun 2020 yılına kadar çeşitli alanlarda çalışan 5 milyondan fazla insanın işini kaybedeceği gerçeğine yol açacağı raporunu sundu. Robotların ve robotik sistemlerin hayatımıza etkisi budur. Raporu derlemek için WEF çalışanları, dünyanın dört bir yanından 13,5 milyon çalışanın verilerini kullandı. Onlara göre, 2020 yılına kadar 7 milyondan fazla işe olan toplam ihtiyaç ortadan kalkacak ve diğer sektörlerdeki istihdamda beklenen büyüme 2 milyonun biraz üzerinde olacak.

Önerilen: