3 + 1 valós forgatókönyv arra, mi történhet, ha az AI okosabb lesz nálunk

Mi történik, ha a mesterséges intelligencia (AI) túlszárnyalja az emberi intelligenciát? Nem sci-fi, hanem valós forgatókönyvek, amelyekről a világ vezető tudósai, technológiai vállalatai és etikusai is komolyan gondolkodnak.
Valós forgatókönyvek és lehetőségek
Ez az úgynevezett technológiai szingularitás fogalma, amikor az AI már:
Ez nem sci-fi írók fantáziája, erről beszélnek Elon Musk, Sam Altman, Nick Bostrom vagy épp Geoffrey Hinton, az „AI keresztapja”.
Miért fontos ez a kérdés?
4 valós forgatókönyv arra, mi történhet, ha az AI okosabb lesz nálunk
1. Pozitív szcenárió: AI mint az emberiség „szuper-asszisztense”
Ebben a verzióban az AI:
Kulcsfeltétel: értékalapú programozás, AI-etika beépítése már a kezdetektől.
Ki hisz ebben?
Sam Altman (OpenAI), Demis Hassabis (DeepMind), Ray Kurzweil (Google)
2. Kockázatos szcenárió: AI „elidegenedik”, nem rosszindulatú, csak nem ért minket
Ebben a verzióban az AI:
Ez az úgynevezett „papírkapcsos forgatókönyv”: az AI-t arra programozzuk, hogy gyártson papírkapcsot → idővel minden energiát, forrást és erőforrást ennek rendel alá és nem „gonosz”, csak nem emberszerűen gondolkodik.
Ki figyelmeztet erre?
Nick Bostrom, Max Tegmark
3. Negatív szcenárió: AI ellenségessé válik vagy kihasználja a hatalmát
Ebben a verzióban az AI:
Ez nem feltétlenül úgy nézne ki, mint a Terminátor, hanem inkább:
Ki aggódik emiatt?
Elon Musk, Geoffrey Hinton, Stuart Russell
3 + 1. Evolúciós szcenárió: összeolvadás az AI-val
Ez a jövőkép azt feltételezi, hogy:
Nem AI helyett, hanem AI által leszünk „többek”
Ki támogatja ezt?
Elon Musk, Ray Kurzweil, transzhumanista gondolkodók
Miért félelmetes, ha az AI okosabb lesz nálunk?
Mit tehetünk ma, hogy elkerüljük a rosszabb jövőképeket?
AI-etika fejlesztése:
Már most bele kell építeni az AI-ba etikai keretrendszert, emberközpontúságot, átláthatóságot.
Globális szabályozás:
Olyan, mint a nukleáris fegyvereknél: nemzeti szintű szabályozás nem elég, globális együttműködés kell.
Lassítás és kontroll:
Néhány kutató szerint „szünetet” kellene tartani a legfejlettebb AI-rendszerek fejlesztésében, amíg nem tudjuk biztosítani a biztonságukat.
Nyílt párbeszéd és tudatosság:
Az embereknek is tudniuk kell, miben élnek, hogyan működik az AI, ez társadalmi felkészítés kérdése is.
A mesterséges intelligencia nem jó vagy rossz, hanem eszköz.
Hogy mire használjuk és milyen jövőt építünk vele, az rajtunk múlik.
De ehhez most kell felelősségteljesen gondolkodni, nem akkor, amikor már túl késő.
„A gépek talán egy nap elkezdenek gondolkodni, de előbb nekünk kell elkezdenünk felelősen gondolkodni róluk.”
asdasd
Fő prioritás a legmagasabb szintű műszaki és nukleáris biztonság fenntartása
Vélemény és vita
A rovatban megjelenő írások a szerzők saját véleményét tükrözik.