szerző:
hvg.hu
Tetszett a cikk?

A Louisville-i Egyetem mesterségesintelligencia-szakértője, Roman V. Yampolskiy szerint az eddigi tudományos publikációk nem igazolják azt a feltevést, hogy a mesterséges intelligencia kontrollálható marad.

Az elmúlt években, de különösen a ChatGPT megjelenése óta egyre többször beszélnek arról a kutatók és a politikai döntéshozók, hogy a mesterséges intelligenciát érdemes lenne mielőbb szabályozni. Nemcsak valamilyen apokaliptikus jövőkép miatt, hanem azért is, hogy ne okozzon a társadalom számára egzisztenciális válságot például azáltal, hogy kritikus mértékben hozzájárul az emberek munkahelyvesztéséhez.

A Louisville-i Egyetemen kutató Roman V. Yampolskiy átnézte a mesterséges intelligenciával foglalkozó tudományos publikációkat, és arra a következtetésre jutott, hogy nincs bizonyíték arra, hogy a mesterséges intelligencia biztonságosan ellenőrizhető, és az is marad.

Megjegyezte: még ha vannak is javasolt mechanizmusok és módszerek, ezek az intézkedések nem biztos, hogy elegendők a biztonság szavatolásához. A szakember az eredményeit az AI Unexplainable, Unpredictable, Uncontrollable című könyvében foglalta össze. Bár ennek magyar címe még nincs, lefordítani úgy lehetne: A megmagyarázhatatlan, kiszámíthatatlan, irányíthatatlan MI. Nem túl biztató cím.

Pixabay / geralt

Az Interesting Engineering megjegyzi: a tudós munkáját Elon Musk, valamint a Future of Life Institute (FLI) nevű szervezet finanszírozta. Utóbbi volt az, ami féléves moratóriumot kért az OpenAI GPT-4-énél erősebb mesterségesintelligencia-eszközök fejlesztésére. Az FLI nyílt levelét akkor több mint 33 ezren írták alá, köztük Elon Musk, az Apple társalapítója, Steve Wozniak, valamint az MI keresztapjaként emlegetett Yoshua Bengio.

Yampolskiy írásában azt sugallja, hogy a fejlett rendszerek mindig kockázatot fognak jelenteni az előnyeik ellenére, mert kiszámíthatatlanok és autonómok lehetnek. A szakember nem érti, miért feltételezik a kutatók, hogy az MI leszabályozható lesz, mikor erre tudományos bizonyíték egyelőre nincs.

A tudós úgy véli, mivel a mesterséges intelligencia – beleértve a szuperintelligenciát is – képes tanulni, alkalmazkodni és félig autonóm módon cselekedni, ezért egyre nagyobb kihívást jelent a biztonság szavatolása.

Mennyire egyszerű otthon összedobni egy biológiai fegyvert a ChatGPT-vel?

Az OpenAI egy külön tanulmányt szentelt annak megvizsgálására, hogy a nyelvi modellje érdemi segítséget jelent-e egy biologiai fegyver létrehozásában.

Yampolskiy szerint az egyik legnagyobb problémát a végtelen számú döntések sorozata jelenti, ami miatt nagyon nehéz előre megjósolni az MI viselkedését. A másik problémát az jelenti, hogy nem tudni, mikor miért dönt úgy az MI, ahogy. Ha ez a folyamat átlátható lenne, a lehetséges ballépések számának csökkentése is lehetővé válna.

A szakember kiemelte: ahogy az MI autonómiája növekszik, az emberi kontroll csökkenni fog.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.