Yapay zeka. İkinci bölüm: yok olma mı yoksa ölümsüzlük mü?

İçindekiler:

Yapay zeka. İkinci bölüm: yok olma mı yoksa ölümsüzlük mü?
Yapay zeka. İkinci bölüm: yok olma mı yoksa ölümsüzlük mü?

Video: Yapay zeka. İkinci bölüm: yok olma mı yoksa ölümsüzlük mü?

Video: Yapay zeka. İkinci bölüm: yok olma mı yoksa ölümsüzlük mü?
Video: Asker Terhisleri Neden Durduruldu? | Deniz Arman | 1994 2024, Aralık
Anonim
Yapay zeka. İkinci bölüm: yok olma mı yoksa ölümsüzlük mü?
Yapay zeka. İkinci bölüm: yok olma mı yoksa ölümsüzlük mü?

Karşınızda "Bir dakika, tüm bunlar nasıl gerçek olabilir, neden hala her köşede konuşulmuyor" serisinden bir yazının ikinci bölümü. Önceki seride, bir zeka patlamasının yavaş yavaş Dünya gezegeninin insanlarına doğru süründüğü, dar odaklı zekadan evrensel zekaya ve son olarak yapay süper zekaya doğru gelişmeye çalıştığı biliniyordu.

“Belki de son derece zor bir problemle karşı karşıyayız ve çözümü için ne kadar zaman ayrıldığı bilinmiyor ama insanlığın geleceği çözümüne bağlı olabilir.” - Nick Bostrom.

Makalenin ilk kısmı yeterince masum bir şekilde başladı. Dar odaklı yapay zekayı (rotaları belirlemek veya satranç oynamak gibi belirli bir sorunu çözmede uzmanlaşmış AI) tartıştık, dünyamızda birçoğu var. Ardından, genel yönlü yapay zekayı (entelektüel yetenekler açısından herhangi bir sorunu çözmede bir insanla karşılaştırabilecek AGI veya AI) geliştirmenin neden bu kadar zor olduğunu analiz ettiler. Üstel teknolojik ilerleme hızının, AGI'nin çok yakında köşede olabileceğini ima ettiği sonucuna vardık. Sonunda, makineler insan zekasına ulaşır ulaşmaz aşağıdakilerin hemen gerçekleşebileceğine karar verdik:

resim
resim
resim
resim
resim
resim
resim
resim

Her zaman olduğu gibi, hayatımız boyunca yapay süper zekanın (ISI, herhangi bir insandan çok daha akıllı olan) ortaya çıkabileceğine inanmayarak ve bu konudaki görüşümüzü en iyi yansıtacak duyguları seçerek ekrana bakıyoruz.

ISI'nin özelliklerine dalmadan önce, bir makinenin süper zeki olmasının ne anlama geldiğini kendimize hatırlatalım.

Temel fark, hızlı süper zeka ile kaliteli süper zeka arasında yatmaktadır. Çoğu zaman, süper akıllı bir bilgisayar denilince akla gelen ilk şey, bir insandan çok daha hızlı düşünebilmesidir - milyonlarca kat daha hızlı ve beş dakika içinde bir insanın on yılda ne kadar süreceğini anlayacaktır. ("Kung fu biliyorum!")

Kulağa etkileyici geliyor ve ISI gerçekten de herhangi bir insandan daha hızlı düşünmeli - ancak ana ayırıcı özellik, tamamen farklı olan zekasının kalitesi olacaktır. İnsanlar maymunlardan çok daha zekidir, çünkü daha hızlı düşündükleri için değil, beyinleri karmaşık dilsel temsilleri, uzun vadeli planlamayı, soyut düşünmeyi gerçekleştiren, maymunların yapamadığı bir dizi dahiyane bilişsel modüller içerdiği için. Bir maymunun beynini bin kez hızlandırırsanız, bizden daha akıllı olmayacak - on yıl sonra bile, bir kişinin en fazla birkaç saatini alacak olan talimatlara göre bir inşaatçı kuramayacak. Bir maymunun, kaç saat harcarsa ya da beyni ne kadar hızlı çalışırsa çalışsın asla öğrenemeyeceği şeyler vardır.

Buna ek olarak, maymun ne kadar insan olduğunu bilmiyor, çünkü beyni diğer dünyaların varlığını fark edemiyor - maymun bir insanın ne olduğunu ve bir gökdelenin ne olduğunu bilebilir, ancak bir gökdelenin onun tarafından inşa edildiğini asla anlayamaz. insanlar. Onun dünyasında her şey doğaya aittir ve makak sadece bir gökdelen inşa edemez, aynı zamanda herkesin onu inşa edebileceğini de anlar. Ve bu, zeka kalitesindeki küçük bir farkın sonucudur.

Bahsettiğimiz genel zeka şemasında veya basitçe biyolojik varlıkların standartlarına göre, insanlarla maymunlar arasındaki zeka kalitesi farkı çok küçüktür. Önceki makalede biyolojik bilişsel yetenekleri bir merdivene yerleştirmiştik:

resim
resim

Süper akıllı bir makinenin ne kadar ciddi olacağını anlamak için, onu merdivendeki kişiden iki çentik yükseğe yerleştirin. Bu makine biraz üstün zekalı olabilir, ancak bilişsel yeteneklerimiz üzerindeki üstünlüğü bizimkiyle aynı olacak - maymunlar üzerinde. Nasıl ki bir şempanze gökdelen inşa edilebileceğini asla anlayamayacaksa, birkaç adım daha yüksekte olan bir makinenin ne anlayacağını, makine bize açıklamaya çalışsa bile asla anlayamayabiliriz. Ama bu sadece birkaç adım. Daha akıllı makine içimizdeki karıncaları görecek - bize konumundan en basit şeyleri yıllarca öğretecek ve bu girişimler tamamen umutsuz olacak.

Bugün bahsedeceğimiz süper zeka türü bu merdivenin çok ötesinde. Bu bir zeka patlamasıdır - bir araba ne kadar akıllı olursa, kendi zekasını o kadar hızlı artırabilir, yavaş yavaş ivmesini arttırır. Böyle bir makinenin zeka açısından şempanzeleri geçmesi yıllar alabilir, ama belki de bizi birkaç çentik ile aşması birkaç saat alabilir. O andan itibaren, araba zaten her saniye dört adım atlayabilir. Bu nedenle, makinenin insan zekası seviyesine ulaştığına dair ilk haberin ortaya çıkmasından çok kısa bir süre sonra, bu merdivende bizden çok daha yüksek (veya belki, ve milyonlarca kat daha yüksek):

resim
resim

Ve bizden sadece iki adım yukarıda olan bir makinenin gücünü anlamaya çalışmanın tamamen yararsız olduğunu tespit ettiğimize göre, ISI'nın ne yapacağını ve sonuçlarının ne olacağını anlamanın bir yolu olmadığını bir kere ve kesin olarak tanımlayalım. bu bizim için olacak. Aksini iddia eden kimse, süperzekanın ne anlama geldiğini anlamaz.

Evrim, biyolojik beyni yüz milyonlarca yılda yavaş ve kademeli olarak geliştirdi ve eğer insanlar süper zeki bir makine yaratırsa, bir anlamda evrimi aşacağız. Ya da evrimin bir parçası olacak - belki de evrim öyle bir şekilde çalışıyor ki, zeka tüm canlılar için yeni bir geleceği müjdeleyen bir dönüm noktasına ulaşana kadar yavaş yavaş gelişiyor:

resim
resim

Daha sonra tartışacağımız nedenlerden dolayı, bilim camiasının büyük bir bölümü, sorunun bu devrilme noktasına ulaşıp ulaşamayacağımız değil, ne zaman geleceğimiz olduğuna inanıyor.

Bundan sonra nereye varacağız?

Sanırım bu dünyada hiç kimse, ne ben ne de siz, taşma noktasına geldiğimizde ne olacağını söyleyemeyecek. Oxford filozofu ve önde gelen yapay zeka teorisyeni Nick Bostrom, olası tüm sonuçları iki geniş kategoriye ayırabileceğimize inanıyor.

İlk olarak, tarihe baktığımızda, yaşam hakkında şunu biliyoruz: türler ortaya çıkıyor, belirli bir süre var oluyor ve sonra kaçınılmaz olarak denge aletinden düşüyor ve yok oluyor.

resim
resim

"Bütün türler ölür", tarihte "bütün insanlar bir gün ölür" gibi güvenilir bir kural olmuştur. Türlerin %99,9'u bir yaşam kütüğünden düşmüştür ve bir tür bu kütüğün üzerinde çok uzun süre kalırsa, bir doğal rüzgar veya ani bir göktaşının kütüğü devireceği oldukça açıktır. Bostrom yok oluşa çekici durumu diyor - henüz hiçbir türün geri dönmediği yere düşmemek için tüm türlerin dengelendiği bir yer.

Bilim adamlarının çoğu, ISI'nın insanları yok olmaya mahkum etme yeteneğine sahip olacağını kabul etse de, birçoğu da ISI'nın yeteneklerini kullanmanın bireylerin (ve bir bütün olarak türlerin) çekicinin ikinci durumuna - tür ölümsüzlüğüne - ulaşmasına izin vereceğine inanıyor. Bostrom, bir türün yok oluşu kadar bir türün ölümsüzlüğünün de bir cezbedici olduğuna, yani buna ulaşırsak sonsuz varlığa mahkum olacağımıza inanıyor. Böylece, şimdiye kadar tüm türler bu çubuktan yok olma girdabına düşse bile, Bostrom kütüğün iki tarafı olduğuna ve Dünya'da diğer tarafa nasıl düşeceğini anlayacak bir zekanın bulunmadığına inanıyor.

resim
resim

Bostrom ve diğerleri haklıysa ve elimizdeki tüm bilgilere bakılırsa, haklı olabilirler, çok şok edici iki gerçeği kabul etmemiz gerekiyor:

ISI'nın tarihte ilk kez ortaya çıkması, bir türün ölümsüzlüğe ulaşmasının ve ölümcül yok olma döngüsünden düşmesinin yolunu açacaktır.

ISI'nın ortaya çıkışı, hayal edilemeyecek kadar büyük bir etkiye sahip olacak ki, büyük olasılıkla, insanlığı bir yönde bu kütükten uzaklaştıracak.

Evrimin böyle bir dönüm noktasına geldiğinde, her zaman insanların yaşam akışıyla olan ilişkisine son vermesi ve insanlı veya insansız yeni bir dünya yaratması mümkündür.

Bu, yalnızca bir serserilerin sormayacağı ilginç bir soruya yol açar: Bu devrilme noktasına ne zaman geleceğiz ve bu bizi nereye koyacaktır? Dünyada hiç kimse bu ikili sorunun cevabını bilmiyor, ancak birçok akıllı insan on yıllardır bunu çözmeye çalışıyor. Makalenin geri kalanında, nereden geldiklerini anlayacağız.

* * *

Bu sorunun ilk kısmıyla başlayalım: Taşma noktasına ne zaman ulaşmalıyız? Başka bir deyişle: ilk makine süper zekaya ulaşana kadar ne kadar zaman kaldı?

Görüşler duruma göre değişir. Profesör Vernor Vinge, bilim adamı Ben Herzel, Sun Microsystems kurucu ortağı Bill Joy, fütürist Ray Kurzweil dahil olmak üzere birçok kişi, TED Talk'ta aşağıdaki grafiği sunduğunda makine öğrenimi uzmanı Jeremy Howard ile aynı fikirdeydi:

resim
resim

Bu insanlar, ISI'nın yakında geleceği görüşünü paylaşıyorlar - bugün bize yavaş görünen bu üstel büyüme, önümüzdeki birkaç on yıl içinde kelimenin tam anlamıyla patlayacak.

Microsoft'un kurucu ortağı Paul Allen, araştırma psikoloğu Gary Marcus, bilgisayar uzmanı Ernest Davis ve teknoloji girişimcisi Mitch Kapor gibi diğerleri, Kurzweil gibi düşünürlerin sorunun büyüklüğünü ciddi şekilde hafife aldıklarını ve neredeyse bir yakınlık olmadığımızı düşünüyorlar. devrilme noktası.

Kurzweil'in kampı, ortaya çıkan tek küçümsemenin üstel büyümenin göz ardı edilmesi olduğunu ve şüphecilerin 1985'te yavaş yavaş gelişen internete bakan ve yakın gelecekte dünya üzerinde hiçbir etkisi olmayacağını savunanlarla karşılaştırılabileceğini savunuyor.

Şüpheciler, teknolojik ilerlemenin tipik üstel doğasını etkisiz hale getiren zekanın üstel gelişimine gelince, ilerlemenin sonraki her adımı atmasının daha zor olduğunu savunabilirler. Vesaire.

Nick Bostrom'un yer aldığı üçüncü kamp, a) tüm bunların yakın gelecekte kesinlikle gerçekleşebileceğini; ve b) bunun olacağının veya daha uzun süreceğinin garantisi yoktur.

Filozof Hubert Dreyfus gibi diğerleri, üç grubun da saf bir şekilde, bir devrilme noktası olacağına ve büyük olasılıkla ISI'ya asla ulaşamayacağımıza inandığına inanıyor.

Tüm bu görüşleri bir araya getirdiğimizde ne olur?

2013'te Bostrom, aşağıdaki konu üzerine bir dizi konferansta yüzlerce AI uzmanıyla röportaj yaptığı bir anket gerçekleştirdi: "İnsan düzeyinde YGZ'ye ulaşmak için tahminleriniz neler olacak?" ve bizden iyimser bir yıl (yüzde 10 olasılıkla YGZ'ye sahip olacağımız), gerçekçi bir varsayım (yüzde 50 olasılıkla YGZ'ye sahip olacağımız bir yıl) ve kendinden emin bir varsayım (en erken yıl) isimlendirmemizi istedi. AGI, yüzde 90 olasılıktan beri görünecektir). Sonuçlar burada:

* Ortalama iyimser yıl (%10): 2022

* Ortalama gerçekçi yıl (%50): 2040

* Ortalama karamsar yıl (%90): 2075

Ortalama katılımcılar, 25 yıl içinde YGZ'ye sahip olacağımıza inanıyor. 2075 yılına kadar YGZ'nin meydana gelme olasılığı yüzde 90'dır, şu anda hala oldukça gençseniz, bunun büyük olasılıkla yaşamınızda gerçekleşeceği anlamına gelir.

Yakın zamanda James Barratt tarafından yürütülen ayrı bir çalışma (çok beğenilen ve çok iyi olan Our Last Invention kitabının yazarı, alıntılar okuyucuların dikkatine sundum. Hi-News.ru) ve Ben Hertzel, yıllık AGI Konferansı olan AGI Konferansında, insanların AGI'ye ulaştığımız yıl hakkındaki görüşlerini gösterdiler: 2030, 2050, 2100, sonra ya da asla. Sonuçlar burada:

* 2030: Katılımcıların %42'si

* 2050: 25%

* 2100: 20%

2100'den sonra: %10

asla: %2

Bostrom'un sonuçlarına benzer. Barratt'ın anketine göre, ankete katılanların üçte ikisinden fazlası YGZ'nin 2050 yılına kadar burada olacağına inanıyor ve yarısından azı YGZ'nin önümüzdeki 15 yıl içinde ortaya çıkacağına inanıyor. Ayrıca, katılımcıların sadece %2'sinin prensipte AGI'yi geleceğimizde görmemesi de dikkat çekicidir.

Ancak YGZ, ISI gibi bir devrilme noktası değildir. Uzmanlara göre ne zaman bir ISI'mız olacak?

Bostrom, uzmanlara ASI'ye ne zaman ulaşacağımızı sordu: a) YGZ'ye ulaştıktan iki yıl sonra (yani, bir zeka patlaması nedeniyle neredeyse anında); b) 30 yıl sonra. Sonuçlar?

Ortalama görüş, YGZ'den ISI'ye hızlı geçişin %10 olasılıkla gerçekleşeceği, ancak 30 yıl veya daha kısa sürede %75 olasılıkla gerçekleşeceği yönündedir.

Bu verilerden, katılımcıların hangi tarihte bir ASI için yüzde 50 şans diyeceğini bilmiyoruz, ancak yukarıdaki iki cevaba dayanarak, 20 yıl olduğunu varsayalım. Yani, dünyanın önde gelen AI uzmanları, dönüm noktasının 2060'ta geleceğine inanıyorlar (YGZ 2040'ta ortaya çıkacak + YGZ'den ISI'ye geçiş 20 yıl alacak).

resim
resim

Tabii ki, yukarıdaki istatistiklerin tümü spekülatiftir ve yapay zeka alanındaki uzmanların görüşlerini temsil eder, ancak aynı zamanda ilgilenenlerin çoğunun, 2060 yılına kadar AI'nın gelmesi muhtemel olduğu konusunda hemfikir olduklarını da gösterirler. Sadece 45 yılda.

İkinci soruya geçelim. Taşma noktasına geldiğimizde, ölümcül seçimin hangi tarafı bizi belirleyecek?

Süper zeka en güçlü güce sahip olacak ve bizim için kritik soru şu olacak:

Bu gücü kim veya ne kontrol edecek ve motivasyonları ne olacak?

Bu sorunun cevabı, ISI'nın inanılmaz derecede güçlü bir gelişme mi, ölçülemez derecede ürkütücü bir gelişme mi yoksa ikisi arasında bir şey mi elde ettiğine bağlı olacaktır.

Tabii ki, uzman topluluk da bu soruları cevaplamaya çalışıyor. Bostrom'un anketi, YGZ'nin insanlık üzerindeki etkisinin olası sonuçlarının olasılığını analiz etti ve yüzde 52'lik bir şansla her şeyin çok iyi gideceği ve yüzde 31'lik bir şansla her şeyin ya kötü ya da aşırı kötü gideceği ortaya çıktı. Siz sevgili Hi-News okuyucuları arasında yapılan bu konunun bir önceki bölümünün sonuna eklenen anket de aşağı yukarı aynı sonuçları gösterdi. Nispeten tarafsız bir sonuç için olasılık sadece %17 idi. Başka bir deyişle, hepimiz YGZ'nin büyük bir olay olacağına inanıyoruz. Bu anketin YGZ'nin ortaya çıkışıyla ilgili olduğunu da belirtmekte fayda var - ISI durumunda tarafsızlık yüzdesi daha düşük olacaktır.

Sorunun iyi ve kötü yanları hakkında daha derine inmeden önce, "bu ne zaman olacak?" sorusunun her iki yanını da birleştirelim. ve "bu iyi mi kötü mü?" çoğu uzmanın görüşlerini içeren bir tabloya dönüştürün.

resim
resim

Ana kamp hakkında birazdan konuşacağız, ama önce pozisyonunuza karar verin. Muhtemelen, bu konu üzerinde çalışmaya başlamadan önce benimle aynı yerdesiniz. İnsanların bu konu hakkında hiç düşünmemesinin birkaç nedeni var:

* İlk bölümde bahsedildiği gibi filmler, yapay zeka ile gerçekçi olmayan senaryolar sunarak insanları ve gerçekleri ciddi şekilde karıştırdı ve bu da yapay zekayı hiç ciddiye almamamız gerektiği gerçeğine yol açtı. James Barratt, bu durumu Hastalık Kontrol Merkezleri (CDC) tarafından geleceğimizde vampirler hakkında ciddi bir uyarı yayınlanmasına benzetti.

* Sözde bilişsel önyargılar nedeniyle, kanıtımız olana kadar bir şeyin gerçek olduğuna inanmamız çok zordur. 1988'deki bilgisayar bilimcilerinin İnternet'in geniş kapsamlı sonuçlarını ve ne olabileceğini düzenli olarak tartıştıklarını güvenle hayal edebilirsiniz, ancak insanlar gerçekten olana kadar hayatlarını değiştireceğine pek inanmadılar. Sadece 1988'de bilgisayarlar bunu nasıl yapacaklarını bilmiyorlardı ve insanlar bilgisayarlarına bakıp şöyle düşündüler, “Gerçekten mi? Dünyayı değiştirecek olan bu mu? Hayal güçleri kişisel deneyimlerinden öğrendikleriyle sınırlıydı, bilgisayarın ne olduğunu biliyorlardı ve bir bilgisayarın gelecekte neler yapabileceğini hayal etmek zordu. Aynı şey şimdi AI ile oluyor. Ciddi bir şey olacağını duyduk, ancak henüz yüz yüze karşılaşmadığımız ve genel olarak modern dünyamızda AI'nın oldukça zayıf tezahürlerini gözlemlediğimiz için, radikal bir şekilde olacağına inanmak bizim için oldukça zor. hayatımızı değiştir. Bu önyargılara karşı, tüm kamplardan çok sayıda uzmanın yanı sıra ilgili kişiler, günlük kolektif benmerkezciliğin gürültüsüyle dikkatimizi çekmeye çalışmaya karşı çıkıyor.

* Bütün bunlara inansak bile - bugün kaç kez sonsuzluğun geri kalanını hiçlik içinde geçireceğinizi düşündünüz mü? Biraz, katılıyorum. Bu gerçek, her gün yaptığınız her şeyden çok daha önemli olsa bile. Bunun nedeni, kendimizi içinde bulduğumuz uzun vadeli durum ne kadar yanıltıcı olursa olsun, beynimizin genellikle küçük, günlük şeylere odaklanmasıdır. Sadece biz yaratıldık.

Bu yazının amaçlarından biri, meydandaki iki noktalı çizgi arasındaki kavşakta duruyor olsanız bile, sizi "Başka şeyler hakkında düşünmeyi severim" adlı kamptan çıkarıp uzman kampına koymaktır. yukarıda, tamamen kararsız.

Araştırma sırasında, çoğu insanın görüşlerinin hızla “ana kampa” doğru kaydığı ve uzmanların dörtte üçünün ana kampta iki alt kampa düştüğü açıkça ortaya çıkıyor.

resim
resim

Her iki kampı da tam olarak ziyaret edeceğiz. Eğlenceyle başlayalım.

Gelecek neden en büyük hayalimiz olabilir?

Yapay zeka dünyasını keşfederken, konfor alanımızda şaşırtıcı derecede çok insan buluyoruz. Sağ üst meydandaki insanlar heyecanla uğultuluyor. Kütüğün iyi tarafına düşeceğimize inanıyorlar ve kaçınılmaz olarak buna geleceğimize de inanıyorlar. Onlar için gelecek, yalnızca hayal edilebilecek en iyisidir.

Bu insanları diğer düşünürlerden ayıran nokta, mutlu tarafta olmak istemeleri değil, bizi bekleyenin o olduğundan emin olmalarıdır.

Bu güven tartışmadan doğar. Eleştirmenler, bunun potansiyel olumsuz tarafları gölgede bırakan göz kamaştırıcı bir heyecandan geldiğine inanıyor. Ancak taraftarlar, kasvetli tahminlerin her zaman naif olduğunu söylüyor; teknoloji devam ediyor ve her zaman bize zarar vermekten çok yardımcı olacak.

Bu fikirlerden herhangi birini seçmekte özgürsünüz, ancak şüpheciliği bir kenara bırakın ve denge aletinin mutlu tarafına iyi bakın, okuduğunuz her şeyin zaten olmuş olabileceği gerçeğini kabul etmeye çalışın. Avcı-toplayıcılara konfor, teknoloji ve sonsuz bolluk dünyamızı gösterseydiniz, onlara büyülü bir kurgu gibi gelirdi - ve oldukça mütevazı davranırız, aynı anlaşılmaz dönüşümün gelecekte bizi beklediğini kabul edemeyiz.

Nick Bostrom, süper akıllı bir yapay zeka sisteminin izleyebileceği üç yolu açıklar:

* İnsanların cevaplayamayacağı zor sorular da dahil olmak üzere herhangi bir kesin soruyu cevaplayabilen bir kahin - örneğin, "bir araba motoru nasıl daha verimli hale getirilir?" Google, ilkel bir "kahin" türüdür.

* Herhangi bir üst düzey komutu uygulayacak bir cin - bir otomobil motorunun yeni, daha verimli bir versiyonunu oluşturmak için moleküler birleştiriciyi kullanarak - ve bir sonraki komutu bekleyecek.

* Dünyada geniş erişime ve özgürce hareket etme yeteneğine sahip olacak, kendi kararlarını verecek ve süreci iyileştirecek bir egemen. Bir arabadan daha ucuz, daha hızlı ve daha güvenli bir özel ulaşım yolu icat edecek.

Bizim için zor görünen bu sorular ve görevler, sanki birileri “kalem masadan düştü” durumunu iyileştirmek için sormuş gibi, süper akıllı sisteme görünecektir, bu durumda basitçe alıp geri koyacaksınız.

Amerikalı bir yapay zeka uzmanı olan Eliezer Yudkowski bunu çok iyi ifade ediyor:

“Zor problemler yoktur, sadece belli bir zeka seviyesi için zor olan problemler vardır.(Zeka açısından) bir adım daha yükseğe çıkın ve bazı sorunlar birdenbire "imkansız" kategorisinden "bariz" kampına geçecektir. Bir adım daha yükseğe - ve hepsi belirginleşecek."

Masamızdan kendine güvenen bir rahatlık bölgesi seçen birçok sabırsız bilim adamı, mucit ve girişimci var, ancak bu dünyanın en iyisi için yürümek için yalnızca bir rehbere ihtiyacımız var.

Ray Kurzweil belirsizdir. Bazıları onun fikirlerini putlaştırıyor, bazıları onu hor görüyor. Bazıları ortada kalıyor - Douglas Hofstadter, Kurzweil'in kitaplarının fikirlerini tartışırken, "Sanki çok fazla iyi yemek ve biraz köpek kakası aldınız ve sonra her şeyi öyle bir karıştırdınız ki anlaşılması imkansız bir şekilde karıştırdınız" dedi. neyin iyi neyin kötü."

Fikirlerini beğenseniz de beğenmeseniz de, bir ilgi gölgesi olmadan geçmeniz mümkün değil. Bir genç olarak bir şeyler icat etmeye başladı ve sonraki yıllarda ilk düz yataklı tarayıcı, metni konuşmaya dönüştüren ilk tarayıcı, iyi bilinen Kurzweil müzik sentezleyici (ilk gerçek elektrikli piyano) ve birkaç önemli şey icat etti. ticari olarak başarılı ilk konuşma tanıyıcı. Aynı zamanda beş sansasyonel kitabın yazarıdır. Kurzweil, cüretkar tahminleri için takdir ediliyor ve sicili oldukça iyi - 80'lerin sonlarında, İnternet henüz emekleme dönemindeyken, 2000'lerde Web'in küresel bir fenomen haline geleceğini öngördü. Wall Street Journal, Kurzweil'i "huzursuz bir dahi", Forbes'u "küresel bir düşünce makinesi" olarak nitelendirdi, Inc. Dergi - "Edison'ın yasal varisi", Bill Gates - "yapay zekanın geleceğini tahmin edenlerin en iyisi." 2012'de Google'ın kurucu ortağı Larry Page, Kurzweil'i CTO görevine davet etti. 2011 yılında NASA'nın ev sahipliği yaptığı ve kısmen Google sponsorluğunda Singularity University'nin kurucu ortağı oldu.

Biyografisi önemli. Kurzweil gelecekle ilgili vizyonundan bahsettiğinde kulağa çılgınca bir çılgınlık gibi geliyor, ama bununla ilgili gerçekten çılgın olan şey onun deli olmaktan uzak olması - inanılmaz derecede zeki, eğitimli ve aklı başında bir insan. Tahminlerinde yanıldığını düşünebilirsiniz, ancak o bir aptal değil. Kurzweil'in tahminleri birçok konfor bölgesi uzmanı Peter Diamandis ve Ben Herzel tarafından paylaşılıyor. Olacağını düşündüğü şey bu.

kronoloji

Kurzweil, bilgisayarların 2029 yılına kadar genel yapay zeka (AGI) düzeyine ulaşacağına ve 2045 yılına kadar sadece yapay süper zekaya değil, aynı zamanda tamamen yeni bir dünyaya - sözde tekillik zamanına - sahip olacağına inanıyor. AI kronolojisi hala aşırı derecede abartılı kabul ediliyor, ancak son 15 yılda, yüksek oranda odaklanmış yapay zeka (AI) sistemlerinin hızlı gelişimi birçok uzmanı Kurzweil'in tarafını tutmaya zorladı. Tahminleri, Bostrom'un araştırmasındaki tahminlerden (2040'a kadar AGI, 2060'a kadar ISI) hala daha iddialı, ama çok değil.

Kurzweil'e göre, 2045'in Tekilliği biyoteknoloji, nanoteknoloji ve daha da önemlisi yapay zekada eşzamanlı üç devrim tarafından yönlendiriliyor. Ama devam etmeden önce - ve nanoteknoloji yapay zekayı yakından takip ediyor - hadi nanoteknolojiye bir dakika ayıralım.

resim
resim

Nanoteknoloji hakkında birkaç söz

Genellikle 1-100 nanometre aralığındaki maddenin manipülasyonu ile ilgilenen nanoteknoloji teknolojileri diyoruz. Bir nanometre, metrenin milyarda biri veya milimetrenin milyonda biridir; 1-100 nanometre aralığında virüsler (100 nm çapında), DNA (10 nm genişliğinde), hemoglobin molekülleri (5 nm), glukoz (1 nm) ve diğerleri barındırılabilir. Nanoteknoloji bize tabi olursa, bir sonraki adım, bir büyüklük derecesinden (~, 1 nm) daha küçük olan tek tek atomları manipüle etmek olacaktır.

Maddeyi böyle bir ölçekte manipüle etmeye çalışırken insanların nerede sorunlarla karşılaştıklarını anlamak için, hadi daha büyük bir ölçeğe geçelim. Uluslararası Uzay İstasyonu, Dünya'nın 481 kilometre üzerindedir. İnsanlar dev olsaydı ve ISS'ye kafalarıyla vursaydı, şimdi olduklarından 250.000 kat daha büyük olacaklardı. 1'den 100 nanometreye 250.000 kat büyütürseniz, 2.5 santimetre elde edersiniz. Nanoteknoloji, ISS'nin etrafında dönen, kum tanesi veya göz küresi büyüklüğündeki şeyleri manipüle etmeye çalışan bir insana eşdeğerdir. Bir sonraki seviyeye geçmek için - tek tek atomların kontrolü - dev, 1/40 milimetre çapında nesneleri dikkatlice konumlandırmak zorunda kalacak. Sıradan insanların onları görebilmesi için bir mikroskoba ihtiyacı olacaktır.

1959'da Richard Feynman nanoteknoloji hakkında ilk kez konuştu. Sonra dedi ki: "Fizik ilkeleri, söyleyebileceğim kadarıyla, şeyleri atom atom kontrol etme olasılığına karşı konuşmuyor. Prensip olarak, bir fizikçi, bir kimyagerin yazdığı herhangi bir kimyasalı sentezleyebilir. Nasıl? Kimyacının maddeyi elde etmek için söylediği yere atomları yerleştirerek. " Bütün basitlik bu. Tek tek molekülleri veya atomları nasıl hareket ettireceğinizi biliyorsanız, hemen hemen her şeyi yapabilirsiniz.

Nanoteknoloji 1986'da mühendis Eric Drexler'in çığır açan Makineler Yaratılış kitabında temellerini sunduğunda ciddi bir bilimsel alan haline geldi, ancak Drexler, nanoteknolojideki modern fikirler hakkında daha fazla bilgi edinmek isteyenlerin 2013 kitabını okuması gerektiğine inanıyor. Tam Bolluk (Radikal) Bolluk).

"Gri yapışkan" hakkında birkaç kelime

Nanoteknolojinin derinliklerine iniyoruz. Özellikle "gri yapışkan" konusu nanoteknoloji alanında pek de hoş olmayan ve göz ardı edilemeyecek konulardan biridir. Nanoteknoloji teorisinin eski versiyonları, bir şeyler yaratmak için birlikte çalışacak trilyonlarca minik nanorobotun yaratılmasını içeren bir nano montaj yöntemi önerdi. Trilyonlarca nanorobot yaratmanın bir yolu, kendi kendini kopyalayabilen, yani birden ikiye, ikiden dörde vb. Bir günde birkaç trilyon nanorobot ortaya çıkacak. Bu, üstel büyümenin gücüdür. Komik, değil mi?

Komik, ama tam olarak kıyamete yol açana kadar. Sorun şu ki, hızlı bir şekilde bir trilyon nanobot yaratmanın oldukça uygun bir yolu olan üstel büyümenin gücü, kendi kendini kopyalamayı uzun vadede korkutucu bir şey haline getiriyor. Ya sistem çökerse ve birkaç trilyon için çoğaltmayı durdurmak yerine nanobotlar üremeye devam ederse? Ya tüm bu süreç karbona bağlıysa? Dünyanın biyokütlesi 10 ^ 45 karbon atomu içerir. Bir nanobot, 10 ^ 6 karbon atomu mertebesinde olmalıdır, bu nedenle 10 ^ 39 nanobot, Dünya'daki tüm yaşamı sadece 130 kopya ile yiyip bitirecektir. Bir nanobot okyanusu ("gri yapışkan") gezegeni sular altında bırakacak. Bilim adamları, nanobotların 100 saniyede çoğalabileceğini düşünüyor, bu da basit bir hatanın dünyadaki tüm yaşamı sadece 3.5 saatte öldürebileceği anlamına geliyor.

Daha da kötü olabilir - teröristler ve elverişsiz uzmanlar nanoteknolojinin eline geçerse. Birkaç trilyon nanobot yaratabilir ve onları birkaç hafta içinde dünyaya sessizce yayılmak üzere programlayabilirler. Ardından, bir düğmeye dokunarak, sadece 90 dakika içinde hiçbir şansları olmadan her şeyi yiyecekler.

Bu korku hikayesi yıllardır geniş çapta tartışılırken, iyi haber şu ki bu sadece bir korku hikayesi. "Gri yapışkan" terimini ortaya atan Eric Drexler, geçtiğimiz günlerde şunları söyledi: "İnsanlar korku hikayelerini sever ve bu da zombi korku hikayelerinden biridir. Bu fikir başlı başına zaten beyin yiyor."

Nanoteknolojinin temellerine indiğimizde, onu teknik cihazlar, giysiler, yiyecekler, biyoürünler - kan hücreleri, virüs ve kanser savaşçıları, kas dokusu vb. - her neyse yaratmak için kullanabiliriz. Ve nanoteknolojinin kullanıldığı bir dünyada, bir malzemenin maliyeti artık kıtlığına veya üretim sürecinin karmaşıklığına değil, atom yapısının karmaşıklığına bağlı olacaktır. Nanoteknoloji dünyasında, bir elmas bir silgiden daha ucuz olabilir.

Henüz oraya yakın bile değiliz. Ve bu yolun karmaşıklığını hafife mi yoksa fazla mı tahmin ettiğimiz tam olarak belli değil. Ancak, her şey nanoteknolojinin çok uzak olmadığı bir noktaya gidiyor. Kurzweil, 2020'lerde onlara sahip olacağımızı varsayıyor. Dünya devletleri nanoteknolojinin büyük bir gelecek vaat edebileceğini biliyor ve bu nedenle onlara milyarlarca yatırım yapıyorlar.

Süper akıllı bir bilgisayarın güvenilir bir nano ölçekli montajcıya ulaşması durumunda ne gibi olanaklar elde edeceğini hayal edin. Ama nanoteknoloji bizim fikrimiz ve onu sürmeye çalışıyoruz, bizim için zor. Ya bunlar sadece ISI sistemi için bir şakaysa ve ISI'nın kendisi, prensipte varsayabileceğimiz her şeyden çok daha güçlü olacak teknolojilerle ortaya çıkarsa? Anlaştık: kimse yapay süper zekanın neler yapabileceğini hayal edemez? Beynimizin, olacakların asgarisini bile öngöremediğine inanılıyor.

AI bizim için ne yapabilir?

resim
resim

Süper zeka ve süper zekanın yaratabileceği tüm teknolojiyle donanmış olan ISI, muhtemelen insanlığın tüm sorunlarını çözebilecek. Küresel ısınma? ISI önce fosil yakıtlarla ilgisi olmayan enerji üretmek için bir dizi verimli yol icat ederek karbon emisyonlarını durduracak. Ardından fazla CO2'yi atmosferden uzaklaştırmak için etkili ve yenilikçi bir yol bulacaktır. Kanser ve diğer hastalıklar? Sorun değil - sağlık ve tıp hayal bile edilemeyecek şekillerde değişecek. Dünya açlığı mı? ISI, sıfırdan gerçek etle doğala özdeş et yaratmak için nanoteknolojiyi kullanacak.

Nanoteknoloji, bir çöp yığınını bir fıçı taze et veya başka yiyeceklere dönüştürebilecek (her zamanki biçiminde bile değil - dev bir elma küpü hayal edin) ve tüm bu yiyecekleri gelişmiş ulaşım sistemleri kullanarak dünyaya dağıtabilecek. Tabii ki bu, artık yemek için ölmek zorunda olmayan hayvanlar için harika olacak. ISI, nesli tükenmekte olan türleri korumak veya hatta depolanmış DNA'dan soyu tükenmiş olanları geri getirmek gibi birçok başka şey de yapabilir. ISI, en zor makroekonomik sorunlarımızı - en zorlu ekonomik tartışmalarımızı, etik ve felsefi sorunlarımızı, küresel ticareti - çözebilir ve bunların hepsi ISI için acı bir şekilde aşikar olacaktır.

Ama ISI'nın bizim için yapabileceği çok özel bir şey var. Her şeyi değiştirecek cezbedici ve baştan çıkarıcı: ISI, ölümle başa çıkmamıza yardımcı olabilir … Yapay zekanın yeteneklerini yavaş yavaş kavrayarak, belki de ölüm hakkındaki tüm fikirlerinizi yeniden gözden geçireceksiniz.

Evrimin ömrümüzü şimdikinden daha fazla uzatması için hiçbir neden yoktu. Doğuracak kadar uzun yaşarsak ve çocukları kendi başlarının çaresine bakabilecekleri bir noktaya getirirsek, evrim yeterlidir. Evrimsel bir bakış açısından, gelişim için 30+ yıl yeterlidir ve mutasyonların yaşamı uzatması ve doğal seçilimin değerini düşürmesi için hiçbir neden yoktur. William Butler Yates, türümüzü "ölmekte olan bir hayvana bağlı bir ruh" olarak adlandırdı. Pek eğlenceli değil.

Ve hepimiz bir gün öleceğimiz için ölümün kaçınılmaz olduğu fikriyle yaşıyoruz. Zamanla yaşlanmayı düşünüyoruz - ilerlemeye devam etmek ve bu süreci durduramamak. Ama ölüm düşüncesi aldatıcıdır: onun tarafından yakalanırsak yaşamayı unuturuz. Richard Feynman yazdı:

"Biyolojide harika bir şey var: Bu bilimde ölümün gerekliliğinden bahseden hiçbir şey yok. Sürekli hareket eden bir makine yaratmak istiyorsak, fizikte bunun imkansızlığını ya da yasaların yanlış olduğunu gösteren yeterince yasa bulduğumuzu fark ederiz. Ama biyolojide ölümün kaçınılmazlığını gösterecek hiçbir şey yoktur. Bu beni, bunun o kadar da kaçınılmaz olmadığına ve biyologların bu sorunun, bu korkunç evrensel hastalığın nedenini keşfetmesi an meselesi olduğuna ve tedavi edileceğine inanmamı sağlıyor."

Gerçek şu ki, yaşlanmanın zamanla hiçbir ilgisi yoktur. Yaşlanma, vücudun fiziksel malzemelerinin yıpranmasıdır. Araba parçaları da bozuluyor - ama yaşlanma kaçınılmaz mı? Parçalar eskidikçe arabanızı onarırsanız, sonsuza kadar dayanır. İnsan vücudu da farklı değil - sadece daha karmaşık.

Kurzweil, vücudun herhangi bir yerindeki yıpranmış hücreleri düzenli olarak onarmak veya değiştirmek de dahil olmak üzere insan sağlığı için sayısız görevi yerine getirebilecek kan dolaşımındaki akıllı, Wi-Fi bağlantılı nanobotlardan bahsediyor. Bu süreci iyileştirmek (veya daha akıllı bir ASI tarafından önerilen bir alternatif bulmak) yalnızca vücudu sağlıklı tutmakla kalmaz, yaşlanmayı da tersine çevirebilir. 60 yaşındaki bir kişinin vücudu ile 30 yaşındaki birinin vücudu arasındaki fark, doğru teknoloji ile düzeltilebilecek bir avuç fiziksel sorundur. ISI, bir kişinin 60 yaşında bineceği ve 30 yaşında ayrılacağı bir araba yapabilir.

Bozulmuş bir beyin bile yenilenebilir. ISI, beyin verilerini (kişilik, anılar, vb.) etkilemeden bunu nasıl yapacağını kesinlikle bilirdi. 90 yaşında, tamamen beyin bozulmasından muzdarip bir adam, yeniden eğitimden geçebilir, yenilenebilir ve hayatının başlangıcına geri dönebilir. Saçma görünebilir, ancak vücut bir avuç atomdur ve ISI kesinlikle onları, herhangi bir atomik yapıyı kolayca manipüle edebilir. O kadar da saçma değil.

Kurzweil ayrıca yapay malzemelerin zaman geçtikçe vücuda daha fazla entegre olacağına inanıyor. Başlangıç olarak, organlar sonsuza kadar sürecek ve asla başarısız olmayacak süper gelişmiş makine versiyonlarıyla değiştirilebilir. O zaman, kırmızı kan hücrelerini kendi başlarına hareket eden mükemmel nanobotlarla değiştirerek, kalbe olan ihtiyacı tamamen ortadan kaldırarak, eksiksiz bir vücut tasarımı yapabiliriz. Ayrıca bilişsel yeteneklerimizi geliştirebilir, milyarlarca kat daha hızlı düşünmeye başlayabilir ve bulut aracılığıyla insanlığın kullanabileceği tüm bilgilere erişebiliriz.

Yeni ufukları kavrama olasılıkları gerçekten sonsuz olurdu. İnsanlar sekse yeni bir amaç bahşetmeyi başardılar, bunu sadece üremek için değil, zevk için yapıyorlar. Kurzweil, aynı şeyi yemekle de yapabileceğimize inanıyor. Nanobotlar, ideal beslenmeyi doğrudan vücut hücrelerine ileterek, sağlıksız maddelerin vücuttan geçmesine izin verebilir. Nanoteknoloji teorisyeni Robert Freitas, insan vücudunda uygulandığında 15 dakika boyunca nefes almamasına izin verebilecek kan hücrelerinin yerini alacak bir şey geliştirdi - ve bu bir kişi tarafından icat edildi. ISI'nın ne zaman güç kazanacağını hayal edin.

Ne de olsa Kurzweil, insanların tamamen yapay hale geldikleri noktaya ulaşacağına inanıyor; biyolojik materyallere bakıp ne kadar ilkel olduklarını düşündüğümüz zaman; Mikropların, kazaların, hastalıkların veya sadece yaşlılığın bir insanı iradesi dışında nasıl öldürebildiğine hayret ederek insanlık tarihinin ilk aşamalarını okuyacağımız zaman. Eninde sonunda insan kendi biyolojisini yenecek ve sonsuz olacak - bu, en başından beri bahsettiğimiz denge aletinin mutlu tarafına giden yol. Ve buna inananlar da çok ama çok yakında böyle bir geleceğin bizi beklediğinden eminler.

Kurzweil'in fikirlerinin güçlü eleştiriler almasına muhtemelen şaşırmayacaksınız. 2045'teki tekilliği ve müteakip insanlar için sonsuz yaşam, "ineklerin yükselişi" veya "IQ'su 140 olan insanların akıllı yaratımı" olarak adlandırıldı. Diğerleri, iyimser zaman çerçevesini sorguladı, insan vücudu ve beyninin anlaşılması, Moore yasasını hatırlattı ve henüz ortadan kalkmadı. Kurzweil'in fikirlerine inanan her uzman için onun yanıldığını düşünen üç kişi vardır.

Ancak bununla ilgili en ilginç şey, onunla aynı fikirde olmayan uzmanların çoğunun, genel olarak bunun imkansız olduğunu söylememesidir."Saçmalık, bu asla olmayacak" yerine "ISI'ya gidersek bunların hepsi olacak ama sorun bu" gibi bir şey söylüyorlar. Yapay zeka tehlikeleri konusunda uyarıda bulunan ünlü yapay zeka uzmanlarından biri olan Bostrom, şunları da kabul ediyor:

“Süper zekanın çözemeyeceği, hatta çözmemize yardım edemeyeceği neredeyse hiçbir sorun kalmadı. Hastalık, yoksulluk, çevresel yıkım, her türlü acı - tüm bu süper zeka, nanoteknolojinin yardımıyla bir anda çözülebilir. Süper zeka aynı zamanda nanotıp veya bizi buluta yükleme yeteneği kullanarak yaşlanma sürecini durdurup tersine çevirerek bize sınırsız bir yaşam süresi verebilir. Süper zeka, entelektüel ve duygusal yeteneklerde sonsuz artışlar için fırsatlar da yaratabilir; sevinç ve anlayış içinde yaşayacağımız, ideallerimize yaklaşacağımız ve hayallerimizi düzenli olarak gerçekleştireceğimiz bir dünya yaratmamıza yardımcı olabilir."

Ancak bu, Kurzweil'i eleştiren birinden bir alıntıdır, ancak güvenli bir ASI oluşturabilirsek tüm bunların mümkün olduğunu kabul eder. Kurzweil, mümkünse yapay süper zekanın nasıl olması gerektiğini basitçe tanımladı. Ve eğer o iyi bir tanrıysa.

Konfor bölgesi savunucularının en bariz eleştirisi, ISI'nın geleceğini değerlendirirken çok yanılmış olmalarıdır. Kurzweil, The Singularity adlı kitabında 700 potansiyel ISI tehdidinin 20 sayfasını ayırdı. Soru ISI'ya ne zaman varacağımız değil, asıl soru motivasyonunun ne olacağı. Kurzweil bu soruyu ihtiyatla yanıtlıyor: “ISI, birçok farklı çabadan kaynaklanıyor ve medeniyetimizin altyapısına derinlemesine entegre edilecek. Aslında, vücudumuza ve beynimize yakından gömülü olacaktır. Değerlerimizi yansıtacak çünkü bizimle bir olacak."

Ama cevap ise, bu dünyadaki bu kadar çok akıllı insan neden yapay zekanın geleceği hakkında endişeleniyor? Stephen Hawking neden ISI'nın gelişmesinin "insan ırkının sonu anlamına gelebileceğini" söylüyor? Bill Gates, bu konuda "rahatsız etmeyen insanları anlamadığını" söylüyor. Elon Musk, "bir iblis çağırdığımızdan" korkuyor. Neden birçok uzman ISI'yi insanlık için en büyük tehdit olarak görüyor?

Bir dahaki sefere bunun hakkında konuşacağız.

Önerilen: