Yapay Zeka'nın tetikledigi bir nükleer savasın diger Yapay Zeka'ların karsı saldırılarıyla cevap verdigi dünya kadar tehlikeli hiç bir sey olmayabilir!
Max Tegmark, President of the Future of Life Institute, asagıdaki makalesinde Yapay Zeka'nın tehlikelerinden bahsetmis ayrıca bu tehlikelerin insanlar tarafından nasıl bertaraf edilebileceginin yöntemlerinden bahsetmis. Tegmark'ın bu iyimser yaklasımlarının yanlıs, AI nin risklerini tamamen engelleme amaçlı kurulacak güvenlik sistemlerinde her zaman bir sızıntı nedeniyle insanlıgı felakete sürükleyecegine inanıyorum.
Tegmark: "SIRI'den kendi kendini süren arabalara, yapay zeka (AI) hızla ilerliyor. Bilim kurgu sıklıkla AI'yı insani özelliklere sahip robotlar olarak tasvir ederken, AI, Google’ın arama algoritmalarından otonom silahlara kadar her seyi kapsayabilir. Günümüzde yapay zeka, dar bir görev (örnegin sadece yüz tanıma veya yalnızca internet aramaları veya sadece araba kullanmak) için tasarlandıgından dar AI (veya zayıf AI) olarak bilinir. Ancak, birçok arastırmacının uzun vadeli hedefi süper AI yaratmaktır. Dar kapsamı ile AI, belirli bir görevlerde ne olursa olsun insanlardan daha iyi performans gösterse de, satranç oynamak veya denklemleri çözmek gibi, süper AI neredeyse her bilissel görevde insanlardan daha iyi performans gösterecektir.
NEDEN GÜVENLİK?
Dizüstü bilgisayarınız çökerse veya kırılırsa küçük bir sıkıntıdan biraz daha fazlası olabilirse de, bir AI sisteminin arabanızı, uçagınızı, kalp pilinizi, otomatik islemlerinizi kontrol etmesi durumunda ölümcül olarak daha önemli hale gelir. Uzun vadede, önemli bir soru, güçlü AI arayısı basarılı olursa ve bir AI sistemi tüm bilissel görevlerde insanlardan daha iyi hale gelirse ne olacagıdır.
Ben buna bir çok uzmanın dedigi gibi süper akıllı YZ ya da super ( SAI ) diyorum. 60 larda iyi, akıllı AI sistemleri tasarlamak bilissel bir isti. Devrim niteliginde yeni teknolojiler icat ederek, böylesi bir süper farkındalık savası, hastalıkları ve yoksullugu ortadan kaldırmamıza yardımcı olabilir ve bu nedenle güçlü AI'nın yaratılması insanlık tarihinin en büyük olayı olabilir. Bazı uzmanlar, yapay zekaya dönüsmeden önce AI'nın hedeflerini kendimizle aynı seviyeye getirmeyi ögrenmezsek, insanlıgın sonu olabilecegine dair endiselerini dile getirmektedirler. Güçlü AI'nın asla elde edilip edilemeyecegini sorgulayanlar var, ve süper imtiyazlı AI' nın yaratılmasının yararlı olacagına dair ısrar eden kisiler var. Bugün yapılan arastırmaların gelecekteki potansiyel olarak olumsuz sonuçlara daha iyi hazırlanma ve önleme konusunda bize yardımcı olacagına inanılmakta, böylece AI'nın faydalarından yararlanarak tuzaklardan kaçınabiliriz."
Ben ise gerçekte böyle mi olacak! diye düsünüyorum.
AI NASIL TEHLİKELİ OLABİLİR?
Tegmark: "AI'nın nasıl bir risk haline gelebilecegini düsünürken, uzmanlar iki senaryoyu en muhtemel olarak düsünür:
AI, yıkıcı bir sey yapmak için programlanmıstır: Otonom silahlar öldürmek için programlanmıs yapay zeka sistemleridir.
Yanlıs kisinin elinde, bu silahlar kolayca kitlesel katliamlara neden olabilir. Dahası, bir AI silahlanma yarısı istemeden kitlesel katliamlarla sonuçlanan bir AI savasına neden olabilir.
Düsman tarafından engellenmekten kaçınmak için, bu silahlar basitçe “kapatılması” için son derece zor olacak sekilde tasarlanmıstır, sonuçta insanlar böyle bir durumun kontrolünü kaybedebilir. Bu risk, mevcut AI'da bile mevcuttur ama AI zekası ve otonom düzeyi arttıkça risk daha da büyür. AI, faydalı bir seyler yapmak için programlanmıstır, ancak hedefine ulasmak için yıkıcı bir yöntem de gelistirebilir. Burada uzmanların yorumu : Bu, AI’nın hedeflerini kendimizle tamamen aynı hizaya getirmedigimiz de gerçeklesebilir."
Buna katılmıyorum. Biz ne kadar da uyumlu ve kendimizle tamamen hizaya getirilmis AI yapsak bile, her zaman sistemde insani bir ihmalkarlık, kaçak girisler, zayıf zincir halkaları ve sızıntı alanları olacaktır. Çernobil gerçegi bir sızıntı ve zayıf halkaların sonucu oldugu unutulmamalıdır. özellikle Yapay Zeka'nın silahlanma yarısında dominant olacagını düsünürsek, insanlıgın sonu kapımızı çalabilir.!
Tegmark:"Eger süper akıllı bir sistem iddialı bir jeo mühendislik projesi hidro-elektrik barajı gibi, eko sistemimize bir yan etki olarak zarar verebilir ve insanın onu durdurma girisimlerini tehdit olarak görmesini saglayabilir. Süper zekalı bir AI, hedeflerine ulasmada son derece mükemmel olsa bile bu hedefler insanla uyumlu degilse, çok büyük bir sorunumuz var demektir.. Muhtemelen eko sistem hidroelektrik yesil enerji projesi kurarken ve bölgede su basması gereken vahsi hayvan yuvaları varsa , bu vahsi yasam için son derece kötü bir durumdur. AI güvenlik arastırmalarının temel amacı, insanlıgı asla bu hayvanların konumuna getirmemektir ama yine sistemdeki kaçaklar insanlar ve diger yasam türleri için çok tehlikelidir, kendimizi aldatmayalım.
Diger bir yaygın yanılgı, AI ile ilgili endiseleri dile getiren ve AI güvenlik arastırmalarını savunan tek bir insanın AI hakkında çok fazla bilgisi olmayan insanlardan olusmasıdır. Bu yanılgı, AI güvenlik arastırmalarını desteklemenin oldukça tartısmalı oldugu yönündedir. Medya AI güvenlik tartısmasını gerçekte oldugundan daha tartısmalı görünmesine neden olmus olabilir. Ne de olsa korku satar ve yaklasan kaderi ilan etmek için baglam dısı alıntıları kullanan makaleler, nüanslı ve dengeli olanlardan daha fazla tıklama yaratabilir."
Max Tegmark'ın bu yaklasımına katılmıyorum, çünkü bir çok bilim kurgu senoryaları aynı zamanda korku satar paradigmasını çok iyi isler ama ticari kaygılarında ötesinde aklın sınırlarını zorlayarak zayıf noktaların ve sızıntı alanların insanlık için ne kadar korkunç felaketlere sürükleyebilecegini önceden öngörmektedirler.
Aslında medya belki biraz abartılı olarak kırmızı gözlü silahlı, yok edici robotların insanlıgı esir aldıgı, kamplarda çalıstırdıgı filmler korkutucu olsa da bir AI nin tetikledigi nükleer savasın diger AI lerinde karsı saldırılarıyla cevap verdigi dünya kadar tehlikeli olmayabilir!
Sahsi düsüncem Max Tegmark'tan farklı olarak: gelecekte topluma faydalarını insanlık adına garanti altına alabilmek için Yapay Zeka standartlarının belirlenip hangi kıstaslarda kullanılacagının BM bünyesinde kurulacak çok genis kapsamlı bir komisyonla kontrol altına alınması insanlık adına çok dogru olacaktır.
Commentaires