Super intelektualūs kompiuteriai ar robotai mokslinėje fantastikoje ne kartą kėlė grėsmę žmonijos egzistavimui. Tokiems pasmerkimo dienos scenarijams būtų galima užkirsti kelią, jei žmonės galėtų sukurti virtualų kalėjimą, kuriame būtų dirbtinis intelektas, kol jis pavojingai nesupranta savęs.
Laikydami dirbtinio intelekto (AI) dženą įstrigusiame patarlelyje, apokaliptinė grėsmė gali paversti galingu oraku, kuris išspręs žmonijos problemas, sakė Kentukyje esančio Luisvilio universiteto informatikas Romas Yampolskis. Tačiau sėkmingam izoliavimui reikalingas kruopštus planavimas, kad protingas PG negalėtų tiesiog grasinti, papirkti, suvilioti ar nulaužti savo kelią į laisvę.
„Jis gali atrasti naujus puolimo kelius, pradėti sudėtingas socialinės inžinerijos atakas ir nenumatytais būdais pakartotinai panaudoti esamus aparatinės įrangos komponentus“, - teigė Yampolskis. "Tokia programinė įranga neapsiriboja kompiuterių ir tinklų užkrėtimu - ji taip pat gali pulti žmonių psichiką, papirkti, šantažuoti ir plauti smegenis tiems, kurie su ja susiduria."
Yampolskiy pasiūlė naują tyrimų sritį, skirtą AI kalėjimų problemai išspręsti. Tai galėtų būti naudinga gerinant kibernetinį saugumą ir kriptografiją. Jo pasiūlymas buvo išsamiai aprašytas kovo mėn. „Sąmonės tyrimų žurnalo“ numeryje.
Kaip įstrigti „Skynet“
Vienas iš pradinių sprendimų gali įstrigti AI „virtualioje mašinoje“, veikiančioje įprastos kompiuterio operacinės sistemos viduje - esamas procesas, kuris padidina saugumą, ribodamas AI prieigą prie pagrindinio kompiuterio programinės ir aparatinės įrangos. Tai sustabdo intelektualųjį AI atliekant tokius veiksmus, kaip, pavyzdžiui, siunčiant paslėptus Morzės kodo pranešimus žmonių simpatizatoriams, manipuliuojant kompiuterio aušinimo ventiliatoriais.
AI įdėjimas į kompiuterį be interneto prieigos taip pat neleistų „Skynet“ programai perimti pasaulio gynybos tinklų „Terminatoriaus“ filmų stiliumi. Jei visa kita nepavyksta, tyrėjai visada galėjo sulėtinti AI „mąstymą“, sumažindami kompiuterio apdorojimo greitį, reguliariai paspausdami mygtuką „Reset“ arba išjungdami kompiuterio maitinimo šaltinį, kad AI būtų patikrinta.
Tokios saugumo priemonės traktuoja AI kaip ypač protingą ir pavojingą kompiuterio virusą ar kenkėjišką programą, tačiau nebūdami tikri, kad žinosite, kad kuris nors iš šių veiksmų bus veiksmingas.
„„ Catch-22 “yra tai, kad kol mes visiškai nesukūrėme intelektualios intelekto intelekto, mes negalime visiškai išbandyti savo idėjų, tačiau norėdami saugiai sukurti tokią intelektinę intelektą, turime turėti veikiančias saugumo priemones“, - Yampolskiy pasakojo „InnovationNewsDaily“. "Geriausia, kad būtų naudojamos izoliavimo priemonės prieš žmonijos PG sistemas ir prireikus jas atnaujintume didinant PG pajėgumus."
Niekada nesiųskite žmogaus saugoti mašinos
Net atsitiktinis pokalbis su apsaugininku galėtų leisti AI naudoti psichologinius triukus, tokius kaip susidraugavimas ar šantažas. PG gali pasiūlyti apdovanoti žmogų už nepriekaištingą sveikatą, nemirtingumą, o gal net sugrąžinti mirusią šeimą ir draugus. Jei tai „neišvengiamai“ pabėgs, tai gali pakenkti ir padaryti žmogui baisių dalykų.
Yampolskiy paaiškino, kad saugiausias komunikacijos būdas gali leisti AI reaguoti į daugelio pasirinkimų klausimus ir padėti išspręsti konkrečias mokslo ar technologijų problemas. Tai panaudotų AI, kaip ypač intelektualaus orakulo, galią.
Nepaisant visų apsaugos priemonių, daugelis tyrinėtojų mano, kad neįmanoma išlaikyti protingo PG amžinai užrakintą. Ankstesnis dirbtinio intelekto Singuliarumo instituto tyrėjo Eliezerio Yudkowsky eksperimentas pasiūlė, kad paprasčiausias žmogaus lygio intelektas gali ištrūkti iš „AI dėžutės“ scenarijaus - net jei Yampolskiy atkreipė dėmesį, kad testas nebuvo atliktas labiausiai moksliniu būdu.
Vis dėlto Yampolskiy tvirtai pasisako už tai, kad AI būtų išpilstyta į butelius, o ne skubėtų į galvą, kad išlaisvintų mūsų naujus aparatus. Bet jei AI pasiekia tašką, kuriame ji viršija žmogaus mokslinį supratimą, kad galėtų panaudoti tokias galias kaip išankstinis pripažinimas (ateities žinios), telepatija ar psichokinezė, visos lažybos netenka galios.
„Jei tokią programinę įrangą pavyksta patobulinti iki žymiai aukštesnio nei žmogaus lygio intelekto lygio, žala, kurią ji gali padaryti, yra tikrai didesnė už mūsų galimybes numatyti ar visiškai suvokti“, - teigė Yampolskiy.
Šią istoriją pateikė „InnovationNewsDaily“, „WordsSideKick.com“ seserų svetainė. Galite sekti „InnovationNewsDaily“ vyresnįjį rašytoją Jeremy Hsu „Twitter“ @„ScienceHsu“. Stebėkite „InnovationNewsDaily“ „Twitter @“Naujienos_Inovacija, arba „Facebook“.
Žmonės galėtų nutraukti „teismo dieną“ pastatydami virtualų kalėjimą, kuriame saugomi įstrigę pavojingi dirbtiniai intelektai.