A mesterséges intelligencia körüli cinikus hisztéria

„A mesterséges intelligencia-hisztéria felkorbácsolására létezik egy jól bevált algoritmus – vagy legalábbis egy képlet. Először is, keressünk egy feltalálót vagy „vállalkozót”, aki valamilyen „úttörő” mesterséges intelligencia technológia mögött áll. Aztán rávesszük őket, hogy mondják el, mennyire „veszélyes” és „kockázatos” a szoftverük. Bónuszpontokat kapsz, ha ezt egy nyílt levélben teszik meg, amelyet több tucat „kiváló szakértő” ír alá” – kezdi cikkét Timandra Harkness brit tech-újságíró és szerző az UnHerd oldalán. 

Példának hozza Elon Musk nevével fémjelzett márciusi nyíltlevelet, amelyben a mesterséges intelligencia fejlesztésének szüneteltetését követelték. Megemlíti, hogy  a héten azonban 350 tudós – köztük Geoffrey Hinton, aki gyakorlatilag feltalálta a ChatGPT-t, és Demis Hassabis, a Google DeepMind alapítója figyelmeztettek, hogy a mesterséges intelligenciának „globális prioritásnak kell lennie más társadalmi szintű kockázatokkal, például a világjárványokkal és az atomháborúval együtt”.

Harkness megjegyzi, hogy bár számos neves kutató kongatja a vészharangot, sokan szkeptikusak azzal kapcsolatban, hogy a MI jelenlegi állapota akár csak megközelíti az emberhez hasonló képességeket, nemhogy emberfeletti képességeket.

Idézi a cikk Rodney Brooks robotikai szakértőt, aki szerint „máris le kellene nyugodnunk”, míg Yann Le Cun – aki osztozott Hinton Turing-díjában – úgy véli, hogy „ezek a rendszerek közel sem rendelkeznek emberi szintű intelligenciával”.

„Ez nem azt jelenti, hogy ezek a gépi tanulási programok nem okosak. A mai hírhedt interfészek képesek új anyagokat előállítani a felhasználók utasításaira reagálva. A legnépszerűbbek – a Google Bard és az Open AI Chat GPT – ezt „nagy nyelvi modellek” (Large Language Models, LLM) segítségével érik el, amelyeket hatalmas mennyiségű, ember által generált szövegen képeznek ki, amelyek nagy része szabadon elérhető az interneten. Ezek a generatív programok több példát dolgoznak fel, mint amennyit egy ember egy életen át el tudna olvasni, és emberi visszajelzésekkel finomítva és irányítva rendkívül hihető, emberhez hasonló szöveges válaszokat produkálnak.

Most már tudjuk, hogy ez lehetővé teszi, hogy hasznos válaszokat adjon tényszerű kérdésekre. De képes hamis válaszokat, kitalált háttéranyagokat és szórakoztató, műfaji határokon átívelő találmányokat is produkálni. És ez nem feltétlenül teszi kevésbé fenyegetővé: ez az emberhez hasonló hihetőség az, ami arra késztet bennünket, hogy az LLM-eknek olyan emberhez hasonló tulajdonságokat tulajdonítsunk, amelyekkel azok nem rendelkeznek” – írja a cikk.

A szerző megjegyzi, hogy az z LLM-ek a nyelv emberi értelemben vett megértéséhez nélkülöznek minden alapot.  Ezt úgy kell elképzelni, hogy belső modelljük a valószínűségek sokdimenziós térképe, amely megmutatja, hogy melyik szó nagyobb vagy kisebb valószínűséggel követi az előzőt. Amikor például a Chat GPT válaszol egy Párizs helyére vonatkozó kérdésre, nem a világról szerzett közvetlen tapasztalatokra, hanem az emberek által felhalmozott adatokra támaszkodik – magyarázza a Harkness.

Mi hiányzik még az LLM-ből, amivel az emberi elme rendelkezik?

„Talán a legfontosabb, hogy hiányzik belőlük a szándék, hogy igazat mondjanak. Valójában egyáltalán nincs szándékuk. Az emberek a nyelvet célokra használják, szándékkal, az emberi elmék közötti játékok részeként. Lehet, hogy szándékosan hazudunk, hogy félrevezessük őket, de ez önmagában is az igazság értékéhez való hozzáállás.

Ez az igazság iránti emberi tisztelet az, ami annyi rémületet kelt a mesterséges intelligencia azon képességével kapcsolatban, hogy hihető, de valótlan anyagokat állítson elő. A tömeges dezinformációs fegyverek a mai internetet fenyegető kísértet, amelynek robbanófejeként deepfake videók vagy hangfelvételek szolgálnak. Mégis nehéz ezt radikálisan új problémának tekinteni. Az embereknek már most is sikerül sokkal egyszerűbb eszközökkel vad valótlanságokat terjeszteniük.”

A szerző kijelenti, hogy még a mesterséges intelligencia intellektuális képességeinek legfélelmetesebb hívei sem hiszik általában, hogy az LLM-ek jelenleg képesek célokat megfogalmazni vagy cselekvéseket kezdeményezni emberi utasítás nélkül.

A szerző egy érzékletes példával mutatja be, hogy a Chat GPT milyen jellegű tudással rendelkezik.

„Képzeljük el, hogy az ógörög nyelvet úgy tanuljuk meg, hogy megjegyezzük a leggyakoribb 1000 szó helyesírását, és levezetjük azokat a nyelvtani szabályokat, amelyek szabályozzák, hogyan lehet ezeket kombinálni. Egy vizsgán talán úgy tudnál megfelelni, hogy a tankönyvben szereplő kérdésekhez hasonló kérdésekre a legvalószínűbb válaszokat adod meg, de fogalmad sem lenne, mit jelentenek a válaszok, nemhogy jelentőségük az európai kultúra történetében.

Nagyjából ez az, amire egy LLM képes, és ezért nevezik „sztochasztikus papagájnak” – az emberi kommunikációt imitálja, egy-egy szóval, megértés nélkül”

– vezeti le a cikk.

De ha még messze vagyunk a Terminátortól, akkor mi ez a jelenlegi „pánik”.

„A cinikus, de talán a legmeggyőzőbb válasz az, hogy a mesterséges intelligencia technológiájának szabályozása jelenleg napirenden van – és a vállalkozók nagyon szeretnék megmutatni, hogy komolyan veszik a „kockázatot”, abban a reményben, hogy így megbízhatóbbnak tűnnek majd” – írja Harkness.

Az Unió és az Egyesült Államok is MI szabályozásokra készülnek.

A szerző elismeri, hogy a félelmeknek hosszú kulturális előzményei is vannak.

„Ha hiszünk abban, hogy az emberi nyelv a cselekvőképesség kifejeződése egy közös jelentésvilágban, hogy minden emberi elme nemcsak szubjektív tapasztalatokra képes, hanem arra is, hogy célokat alakítson ki és új projekteket kezdeményezzen más emberekkel, akkor az olyan előrejelzéseket generáló gépek, mint a ChatGPT, nagyon távol állnak az emberhez való hasonlóságtól.

Ha azonban hiszünk abban, hogy a nyelv egy jelentésstruktúra, amelynek mi csak véletlenszerű résztvevői vagyunk, hogy az emberi elme a viselkedések emergens tulajdonsága, amely fölött kevesebb kontrollunk van, mint azt hinni szeretnénk, akkor nagyon is hihető, hogy a gépek közel kerülhetnek ahhoz, hogy hazai pályán felérjenek hozzánk. A statisztikai súlyok kiigazításának iteratív folyamatát már most is „tanulásnak” nevezzük” – mutatja be a nézetek közti ellentétet a cikk.

A teljes írás itt olvasható.

A véleménycikkek nem feltétlenül tükrözik a Neokohn szerkesztőségének az álláspontját.