
Amikor a mesterséges intelligenciáról beszélünk, többnyire három, széles körben elterjedt felfogás, narratíva dominálja a közgondolkodást. Az egyik az, hogy az AI forradalmat okoz, ami átalakítja társadalmunkat és kultúránkat, azaz jön, és mindent megváltoztat az élet összes területén: az oktatást, az egészségügyet, az agráriumot, a politikát. Felforgatja az eddig létező struktúrákat, és megváltoztatja az arra épülő gyakorlatokat is.
A másik az a nézet, hogy ha már hat, akkor az AI-nak vannak általánosságban vett „jó” és „rossz” hatásai. Ezt úgy szoktuk érteni, ahogy azt például az Európai Parlament 2020-as közleménye megfogalmazza: „…ha nem kezelik megfelelően, a mesterséges intelligencia téves döntésekhez vezethet, vagy az etnikai hovatartozásra, nemre, és életkorra vonatkozó adatokkal befolyásolhatja a döntéseket egy ingatlan bérbeadása vagy akár egy elbocsátás során. Emellett befolyásolhatja a magánélethez és az adatvédelemhez való jogot. Használható például arcfelismerő berendezésekben, vagy online nyomon követés és profilalkotás céljából. A mesterséges intelligencia szerepet játszhat a gyülekezési és tiltakozási szabadság sérelmében is, mivel nyomon követhet a bizonyos eszmékhez, vagy akciókhoz kötődő személyeket.”
Egyértelműen kirajzolódik, hogy ezek bizony mind rossz dolgok, amikkel szembehelyezhetők az AI pozitív hatásai. Hasonlóképpen épül fel ez a narratíva, mint az okostelefonokkal kapcsolatban, ahol az általános előny például a készülék sokoldalúságában jelenik meg, a hátrányok pedig abban, hogy függőséget okoz, vagy éppen elbutítja az embereket.
Végül a harmadik állítás: az AI bár szépen fejlődik, csak „még nincs ott”. De ha már „ott lesz”, még radikálisabb változásokat okoz majd. Avagy ha a technológia elér a fejlettsége csúcsára, technológiai értelemben tökéletes(ebb) lesz, elhozza a szép új világot, vagy akár az emberiség megsemmisítésére is törekedhet (amit az úgynevezett szingularitással kapcsolatban szokás emlegetni). Ebben a felfogásban egyfelől az előző két nézet kombinációját láthatjuk: az AI autonóm fejlődésébe vetett hit kapcsolódik össze azzal, hogy a technológia általánosságban jó vagy rossz hatással lesz a világunkra. Tehát a technológia tökéletességét önmagában vett minősége, specifikációi, technikai tulajdonságai határozzák meg: sebessége, számítási képességei, és így tovább. Amit pedig hozzáad, az az, hogy a technológia történetének van egy előrejelezhető íve, aminek következményeképpen már ma tudhatjuk, hol fog majd kiteljesedni később.
Azt gondolom, hogy mind a három narratíva vagy egyoldalú, vagy félrevezető, vagy egyenesen hamis. Ezért a következőkben egyfelől megkísérlem érvekkel alátámasztani, hogy miért is gondolom ezt így, és eközben egy olyan szemléletet is szeretnék bemutatni, amellyel alternatív módon lehet megközelíteni és értelmezni az AI és társadalom viszonyát.
Miért nem változtatja meg az AI a társadalmat és a kultúrát?
Abból az egyszerű okból, hogy a viszony kétoldalú, ahogy mindig is az volt minden technológiát és az éppen aktuális társadalmi közegét illetően. Amikor azt mondjuk, hogy az AI-forradalom átalakítja a kultúrát, akkor nyíltan vagy kimondatlanul azt állítjuk, hogy az AI egyedüli cselekvő és ható tényező ebben a folyamatban, és a társadalom nem játszik szerepet a technológia kialakításában és formálásában. Ok-okozatiságot feltételezünk, ráadásul egyirányút. Ezt a felfogást a technológiáról való társadalomtudományi és filozófiai gondolkodásban determinizmusnak hívjuk. Ez a felfogás a 20. század óta kétségkívül a legdominánsabb technológia-értelmezési narratíva, hiszen ugyanerre a fő logikai sémára épül nemcsak a közbeszéd, de a művészeti kifejezés majd minden jövőképe: az utópikus filmekben és irodalmi művekben a technológia hozza el a szép új világot, a disztópikus, apokaliptikus sztorikban pedig a katasztrófát.
A determinizmus töretlenül a legnépszerűbb, de nem az egyetlen értelmezési kerete a technológia és a társadalom viszonyának. Ugyanis van másik: a társadalmi, kritikai (még tudományosabb nevén: konstruktivista) szemlélet arra mutat rá, hogy nem feltétlenül a technológia változtat meg minket, hanem a társadalom is alakítja a technológiát. Ezért a technológia nem autonóm módon irányítja saját alakulását, hanem azt alapvetően meghatározzák azok a társadalmi-kulturális résztvevők, akik vagy amelyek kapcsolódnak hozzá.
Ezeket a különböző tudományági szlengekben kétségkívül „releváns társadalmi csoportoknak”, „stakeholdereknek”, „érdekelti csoportoknak” hívják. A generatív mesterséges intelligenciához kapcsolódóan ilyenek például a szerzői jogi érdekcsoportok, a különböző országok, ágazatok szabályozói közegei, a platformok a Metától a Microsofton át a Google-ig, az AI-fejlesztő vállalatok, a médiacégek, a felhasználók sokszínű körei, és még hosszan lehetne folytatni a sort. Mindegyik csoportnak más az érdeke, és más irányokba próbálják terelni a fejlesztési irányokat: milyen problémát oldjon meg, mennyibe kerüljön, kinek legyen elérhető, vagy éppen hogyan lehetne, kellene szabályozni, és mi szerint.
Éppen ezért ezek a csoportok mind alapvetően másképpen is látják, értelmezik a technológiákat: ezt hívjuk értelmezési rugalmasságnak. Mindenki másképpen látja az AI szerepét: egy diák könnyű módszernek arra, hogy megússza a beadandót, egy médiavállalat költségcsökkentő eszközként, egy fordító egyszerre segítségként és egzisztenciáját fenyegető veszélyként. Ezek a hálózati struktúrában összefonódó résztvevők együttesen határozzák meg, hogy az AI milyen irányba menjen.
Az egyes társadalmi csoportok tagjai ráadásul egyszerre akár több szerepben is lehetnek: a média például egyszerre felhasználó, témafeldolgozó, pro- és ellenérdekelt más és más szempontokból. Az interjú-hanganyagok leiratainak elkészítésében hasznos eszköz az AI, ahogy hálás téma megírni az újabb fejlesztésekről szóló híreket is. Ezzel párhuzamosan például a Google által használt Gemini AI-összefoglaló a keresési oldalak tetején egyértelműen szembemegy a médiavállalatok érdekeivel (mert így kevésbé kattintanak a felhasználók az összefoglalók forrását adó médiatartalmakra), miközben maguk a médiavállalatok is szívesen használnak AI-ágenseket arra, hogy kiváltsák az emberi munkaerőt például adatbázisok alapján generálható tartalmak előállítására. Ez természetesen a médián belül is konfliktusokhoz, értelmezési és érdekkülönbségekhez vezethet, például amikor az üzleti működtetés és az újságírói tartalmi szempontok eltérő felfogásai kerülnek összeütközésbe. Ezek a küzdelmek nagymértékben meghatározzák, merre is haladhat az AI alkalmazása, szerepe egy médiavállalat életében — és ilyen küzdelmek zajlanak az élet minden területén.
Lehet forradalom a hype?
Az AI mint autonóm forradalom megkérdőjelezése mellett szól az a politikai gazdaságtani szempont is, hogy a technológiai hype mint társadalmi jelenség — azaz egy új technológia radikálisan újnak és felforgatónak való beállítása — a mögötte álló érdekcsoportok közvetlen üzleti érdekében áll. Az OpenAI-nak, a Google-nek és minden más szereplőnek egyértelmű érdeke, hogy a forradalom-narratíva élénk legyen, és a társadalom így lássa ezt a viszonyt. Ehhez készségesen csatlakozik a média, és a társadalmi érdeklődés pozitív visszacsatolásos összjátéka. Azokon az eseteken keresztül, amelyek már lecsengtek, könnyebben lehet tetten érni ezt a dinamikát: a közelmúltból ilyen a Metaverzum-forradalom, ami a Facebook/Meta pr-műveletének következtében végigszántotta a globális sajtót. A média végigkövette és támogatta az egész hype-ciklust, a felívelésétől a lecsengéséig, hogy a végén a forradalomnak nyoma sem maradjon.
A társadalmi szemlélet azt is hangsúlyozza, hogy az emberi, társadalmi értékek és érdekek már magukban a technológiai termékekben is benne vannak. Nyilvánvalóan nem az autonóm módon fejlődő AI tehet róla, hogy jelenleg prűdebb, mint egy konzervatív politikus. Számos társadalmi érték, ami az érdekeltek hálózatában formálódik meg, már eleve implementálva van a kódban. Ilyen értékek például a hagyományos amerikai prüdéria, félelem a szabályozóktól, a szexualitás általános tabuja a nyugati társadalomban, a széles társadalmi rétegekhez való elérés szándéka, a márkabiztonság, és így tovább.
Hasonlóképpen, az üzleti érdekek képviselete, az üzleti modellek támogatása is része az AI ágensek működésének. Mindenkinek napi élménye, ahogy az AI visszakérdez, hogy még hogyan folytathatná a feladat kibontását, azaz próbálja ösztönözni a felhasználót a további használatra. Ez sokszor nem áll meg egy egyszerű visszakérdezésnél, felajánlásnál: a Harvard Business School kutatói egy idei tanulmányukban azt elemezték, hogyan próbálnak egyes AI ágensek akár érzelmileg manipulálni felhasználókat arra, hogy folytassák tovább az interakciót az ágenssel. Ezzel az AI a platformlogikát szolgálja, a mögötte álló vállalat érdekeit képviseli, hogy maximalizálja az adatgyűjtést, serkentse a felhasználói aktivitást, és a felületén tartsa a felhasználót.
A nagyon újnak gondolt technológiák forradalmi hatását az is megkérdőjelezi, hogy az ezek körüli konfliktusok sokszor már meglévő társadalmi problémákra, konfliktusokra épülnek rá. Az AI esetében a platformkapitalizmus legnagyobb szereplőit látjuk a Microsoft-Open AI-tól a Google-Gemini-ig felvonulni, a szilícium-völgybeli technológiai fölény demonstrációjának újabb hullámában. Ehhez szervesen hozzákapcsolódik a greenwashing, azaz az AI döbbenetes ökológiai lábnyomának tagadása. A globális technológiai hatalmi harc szerves folytatása az AI megjelenése, beilleszkedve az évtizedes hatalmi struktúrákba, azokat egyáltalán nem felforgatva, inkább megerősítve. És ez el is vezet a következő ponthoz: kinek mi a jó és rossz a mesterséges intelligenciával kapcsolatban?
Miért nincsenek az AI-nak eleve jó vagy rossz hatásai?
Azért nem érdemes az AI általános jó és rossz hatásairól beszélni, mert olyan sincsen, hogy általánosan elfogadott jó vagy rossz: minden érdekelt számára más és más számít annak. Amikor ilyet tulajdonítunk az AI-nak, akkor egyszerűen bizonyos társadalmi konvenciókat, morális, erkölcsi elképzeléseket, értékeket vetítünk rá a technológiára. Ami sokszor előíró, azaz feltételez ráadásul egy megfelelő és nem megfelelő kezelést is (mint az Európai Parlament fent idézett anyagában).
De vegyük észre: azok a bizonyos rossz hatások nem is jönnének létre, ha nem állnának masszív érdekek a létrehozásuk mögött — tehát nem lennének valakik számára jók.
A Google Gemini AI-összefoglaló a keresőben rossz a médiának, de jó a Google-nek, azért van ott. De ez arra is példa, hogy miként épül rá meglévő, sok évtizedes médiapiaci konfliktusokra az AI-konfliktus: a korai híraggregátoroktól (emlékszik még valaki a Hírkeresőre?) és a „mély link” konfliktustól kezdve (lehet-e a híraggregátoroknak csak úgy linkelgetni és összegyűjteni dobozokban a cikkeket?) a „snippet tax” ügyeken át (lehet-e fizetésre bírni a social media felületeket azért, hogy a cikkre kattintás nélkül elolvashassuk egy cikk összefoglalóját a feedben vagy egy keresési oldalon?) egészen az AI-összefoglalókig. Ugyanazok az előállító- közvetítő- és platformkonfliktusok ismétlődnek húsz éve, ami az egymásba fonódás és egyben rivalizálás ellentmondásos természetéből fakad.
Lehet ennél sokkal megrázóbb példát is mondani. Körbejárta a világot a hír, hogy a ChatGPT-nek kimutathatóan szerepe volt egy kaliforniai tinédzser öngyilkosságában.
Ami az AI-platformot illeti, egyrészt a tragédia nem véletlenül történhetett meg, másrészt maga a tragikus esemény is bőven hozott hasznot a tradicionális és a social médiának egyaránt, a kattintásokon és interakciókon keresztül (ami szintén nem új jelenség). A jó és rossz minden társadalmi csoportnál, érdekeltnél más és más, eltérő értékrendbeli alapokon, más érdekekkel, ezért nem lehet enélkül a kontextus nélkül értelmezni ezt a viszonyt.
Miért nem számít, hogy mennyire fejlett az AI, abban a tekintetben, hogy utópiát vagy katasztrófát hoz?
Amikor egy olyan irányt vizionálunk, hogy az AI fejlődése egy magasabb pontján még radikálisabb hatást gyakorol a társadalomra, három különböző érzékcsalódást vagy éppen elfogultságot ötvözünk. Az egyik, hogy célelvű történelemszemléletet hozunk mozgásba: azt feltételezzük, hogy az emberi világ eseményei vezetnek, tartanak valahova. (Itt is el lehet mondani, hogy ezt már a görögök kitalálták, a neve is görög ennek a történelemfelfogásnak: teleológia.) Arra persze egyszerűen nincsen adatunk, hogy így lenne — gondolkodhatunk így, de ez inkább hitnek, mint tudásnak nevezhető. A másik a kivetítés, azaz az extrapoláció gesztusa: minden úgy fog folytatódni a jövőben is, ahogy eddig. Viszont számos adatunk van arra, hogy biztosan nincs így: nem tudjuk előrejelezni a jövőt, és az nagyon sok esetben éppen a technológia autonómnak beállított fejlődési ívétől eltérően alakul. (Még mindig nem élünk a metaverzumban, és nem az önvezető autók sorában állunk a dugóban, ahogyan azt a pár évvel ezelőtti jóslatok ígérték.) A harmadik a technológia fejlődésébe vetett a hit: nevezetesen az, hogy egy technológia puszta tulajdonságai egyértelműen eldöntik, hogy fejlettebb-e vagy sem, és ha fejlettebb, akkor sikeres lesz. Sajnos azonban a fejlődés fogalma sokkal problematikusabb ennél. Gondoljunk egy minden mást letaroló autóipari trendre, ami még mindig növekvőben van: az autók SUV-osodására. Szembemegy a városi terepjárók elszaporodása mindennel, amit a fenntarthatóságról, a városi terek élhetőségéről, racionalitásról, egyebekről gondolunk? Igen. Fejlődésnek tekinthető az autók hatalmasra duzzadása és minden ezzel járó következmény? Bizonyos szempontból lehet, de a fenti szempontok szerint biztosan nem. De ami a lényeg: a SUV-őrület egyáltalán nem az ilyen típusok objektív technológiai fejlettségének köszönhető, hanem a rájuk adott társadalmi reakcióknak. Azaz a sikerhez nem feltétlenül a technológiát kell jobbá tenni, hanem az embereket meggyőzni róla hogy ez jó lesz nekik.
Pontos, megbízható, tévedhetetlen egy AI ágens? Dehogy. Sikeres? Nagyon. Miért? Az eddigi tapasztalatok azt mutatják, hogy ha egy AI ágens emberszerűen tud beszélni, akkor bármit is mond, a felhasználók gyakorlatilag elhiszik neki — nem azért, mert a válaszai annyira jók, hanem azért, mert nekünk elég jók. Tegye fel a kezét aki nem találkozott még ismerőse által posztolt jogi tanáccsal, társadalmi jelenségek értelmezésével, életvezetési útmutatókkal, amiket bevallottan AI készített. Nem pusztán kritika nélkül hisszük el a bármiféle ellenőrzött forrás nélküli szövegeket, de ezt még fel is vállaljuk. A személyes, anekdotikus élményeken túl rengeteg adat is alátámasztja ezt. Eddig több száz olyan esetet dokumentáltak, ahol bírósági anyagokban AI által generált szövegek szerepeltek, vagy hivatkozás nélkül, vagy fiktív hallucinációként. És ahogy BME-s hallgatók kimutatták, a ChatGPT nemcsak tartalmakat, de tudományos folyóiratcikk-szerzőket is előszeretettel hallucinál — ahogy ezek könnyedén meg is jelennek az emberek által kritika nélkül átvett további írásokban is.
Nem elég az AI-t ismerni, a társadalmat is ismerni kell
Bár a technológia és a társadalom viszonyát jellemzően ugyanazokban a nagy sémákban tárgyalja a közbeszéd, van alternatíva, és lehet másképpen is értelmezni az AI és a társadalom viszonyát is. Lehet nem adottnak venni a technológia hatását, a jó és rossz jelentéseit, és a fejlődés mint olyan abszolút fogalmát. De miért érdemes hátralépni, megkérdőjelezni ösztönös ok-okozati reflexeinket és morális ítéleteinket? Miért érdemes figyelni a társadalom, a média és az AI hálózatának dinamikájára?
Meggyőződésem szerint azért, mert ha előrejelezni nem is fogjuk tudni jobban a folyamatokat, az biztos, hogy tisztábban láthatjuk azok társadalmi beágyazottságát, és az AI szélesebb körű értelmezésén keresztül az azt előállító és használó emberek motivációit, értékeit is jobban megérthetjük. Ennek következményeképpen pedig előtérbe kerülhet az a szempont, hogy ha az AI és a társadalom kapcsolatában az egyes társadalmi csoportok számára hasznos dolgok előmozdításán és károsnak ítélt folyamatok visszaszorításán kívánunk dolgozni, akkor ahhoz legalább annyira ismernünk kell a társadalmi mintázatokat, mint az AI működését.
Miközben azt a képet is láthatjuk, amiben mi magunk is — mint valamelyik releváns társadalmi csoport tagjai — benne vagyunk, így segíthet a saját AI-jal kapcsolatos céljaink, érdekeink jobb megértésében és pozícionálásában is. Hogyan látjuk az AI-t? Mitől félünk vele kapcsolatban? Mit akarunk tőle? Részben az ezekre a kérdésekre adott válaszainktól függ, hogy végül milyen szerepet fog betölteni az életünkben.
A szerző a BME GTK Szociológia és Kommunikáció Tanszékének habilitált egyetemi docense, a Kommunikáció és Médiatudomány Mesterszak Digitális Média Szakirányának vezetője.










