A mesterséges intelligencia rohamos elterjedésével az elmúlt években a technológiai fejlődés új korszakába léptünk. Az MI már nem csupán tudományos-fantasztikus jövőkép: egyre inkább beépül a mindennapjainkba, és fokozatosan formálja a gondolkodásunkat, a döntéseinket és a társadalmi berendezkedésünket. Növeli a hatékonyságot, kényelmi előnyöket és új lehetőségeket kínál, miközben újraértelmezi a munkát, a tudást, a kommunikációt és a kreativitást. Ugyanakkor komoly felelősséggel is jár: gazdasági, jogi és etikai kérdések sorát veti fel, és hosszú távon beláthatatlan kockázatokat hordoz.

- A nagy nyelvi modellek alapvetően átalakítják az információhoz való hozzáférést, de a tévedések és a hallucinációk miatt elengedhetetlen az alapos ellenőrzés.
- Az MI által létrehozott félrevezető tartalmak elmossák a határt a valóság és a fikció között, növelik a tömeges manipuláció veszélyét és gyengítik a kritikus gondolkodást.
- A mesterséges intelligencia térnyerése gyorsabban és mélyebben formálja a munka világát, mint bármely korábbi technológiai újítás.
- A digitális forradalom hatalmas környezeti terheléssel jár, az adatközpontok brutális erőforrásigénye világszerte hiányt és áremelkedést okoz a hardverpiacon.
- A lehetséges jövőképek három fő irányt rajzolnak ki: optimista, pesszimista és realista forgatókönyveket.
Amióta a San Franciscó-i OpenAI vállalat 2022 novemberében nyilvánosan elérhetővé tette a ChatGPT nevű chatbotot, viharos gyorsasággal kezdtek elterjedni a generatív MI-alapú, széles körben és egyszerűen, különböző célokra használható alkalmazások. Az emberi beszédet megtévesztésig utánzó nagy nyelvi modellek tanulnak, alkalmazkodnak és döntéseket hoznak, miközben kényelmesebbé, gyorsabbá és hatékonyabbá teszik az életünket. Személyre szabják az internetezést, az általuk generált tartalmak elárasztják a közösségi médiát, egyre több munkahelyen vetik be őket a feladatok hatékonyabb elvégzésére, és sokan a személyes problémáikat is chatbotokkal beszélik meg.
Mítoszoktól a mélytanulásig
Az emberiség történetében régóta visszatérő törekvés, hogy technikai eszközökkel részben reprodukáljuk vagy kiterjesszük saját képességeinket. Az emberi értelem gépi utánzásának gondolata a mítoszok és legendák világából fokozatosan a tudományos gondolkodás előterébe került. Az ókortól az újkorig készített automatonok és mechanikus figurák a mérnöki képzelőerő korai megnyilvánulásai voltak: előre meghatározott mozgásokat és olykor hanghatásokat imitáltak. A 17. századtól elterjedt mechanikus számológépek nemcsak az aritmetika gépesítését hozták el, hanem megerősítették a számítás és a következtetés formalizálásának gondolatát is. Ez a fejlődési ív megalapozta a modern logika és a számítástudomány, végső soron pedig a mesterséges intelligencia elméleti alapjait.
Az MI fejlesztésének alapjait a második világháború után, a számítástechnikai forradalom korában fektették le. Kezdetben olyan gondolkodó, döntéseket hozó gépekkel kísérleteztek, amelyekkel az emberi kogníciót és érvelést próbálták utánozni. Alan Turing brit matematikus 1950-ben az úgynevezett utánzó játékot javasolta: a Turing-teszt alapján a gép akkor tekinthető sikeresnek, ha a bíráló egy beszélgetés során nem tudja megbízhatóan megkülönböztetni a gépet az embertől. Napjainkban egyre több tanulmány igazolja, hogy a nagy nyelvi modellek bizonyos beállítások és instrukciók segítségével képesek megtéveszteni a bírálók egy részét, ám a Turing-teszt sikeres teljesítése továbbra is vitatott, erősen teszt- és kontextusfüggő megállapítás.

Az MI történetének gyakran hivatkozott, szimbolikus kiindulópontja az 1956-ban, a New Hampshire állambeli Dartmouth College-ben megrendezett nyári műhely. Az eseményt előkészítő javaslatban John McCarthy informatikus használta először az „artificial intelligence”, azaz AI kifejezést, és maga a rendezvény ehhez a kutatási programhoz adott keretet. Ekkor fogalmazódott meg, hogy a mesterséges intelligencia célja az emberi tanulás, érvelés, következtetés és problémamegoldás formális modellezése és gépi megvalósítása.
A korai évtizedeket erős optimizmus jellemezte: sokan úgy vélték, hogy a gépek néhány évtizeden belül elérik az emberi intelligencia szintjét. Az első MI-rendszerek – például az egyszerű sakkprogramok és a logikai problémamegoldók – készítői hamar szembesültek a hardver-, módszertani és skálázási korlátokkal. Az 1970-es években a finanszírozás visszaesése és a túlzott elvárások közötti feszültség nyomán beköszöntött az első „MI-tél”, amelynek elnevezése a források befagyására utalt. Az 1980-as években a vállalatok a szabályalapú szakértői programokban és az emberi agy mintájára tanuló algoritmusokban látták a jövőt, ám az évtized végére a szakértői rendszerek piaci kudarca és a források apadása miatt beállt a második „MI-tél”. Az 1990-es években a statisztikai gépi tanulás jelentős előrelépést hozott a beszéd- és képfeldolgozásban, a 2010-es években pedig újabb látványos áttörést jelentett a mélytanulás térnyerése. 1997-ben az IBM sakkozásra kifejlesztett számítógépe, a Deep Blue legyőzte a világbajnok Garri Kaszparovot, jelezve, hogy egyértelmű szabályokkal leírható helyzetekben a gép nemcsak felzárkózhat, hanem felül is múlhatja az embert.
A valódi fordulatot a 2000-es években az internetes adatbőség és a számítási kapacitás növekedése készítette elő. A mélytanulás elterjedésével a mesterséges intelligencia számos, jól definiált feladatban és viszonyítási mércén egyre inkább megközelítette az emberi teljesítményt. A 2010-es évek közepén a generatív modellek új korszakot nyitottak: valósághű képeket, videókat, hangokat és szövegeket képesek szintetizálni tanult statisztikai mintázatok alapján. A modern rendszerek sok online helyzetben meggyőzően emberinek hatnak, ami azt jelzi: a digitális térben nem mindig magától értetődő, hogy emberrel vagy algoritmussal beszélünk. 2016-ban a DeepMind AlphaGo 4:1-re legyőzte a világbajnok gojátékost, Lee Sedolt, és ezzel megmutatta, hogy a gépek már olyan bonyolult, „intuícióra építő” feladatokban is felülmúlhatják az embert, amelyeket korábban elérhetetlennek tartottak.

A 2024-es fizikai és kémiai Nobel-díjak igazolták, hogy a mesterséges intelligencia a tudományos kutatásokra is egyre nagyobb hatást gyakorol. A fizikai Nobel-díjat a mesterséges intelligencia „keresztapjaként” ismert brit–kanadai Geoffrey E. Hinton és az amerikai John J. Hopfield kapta olyan alapvető felfedezésekért és találmányokért, amelyek megalapozták a mesterséges neurális hálózatokkal történő gépi tanulást. A kémiai Nobel-díjat az amerikai David Baker, valamint a brit Demis Hassabis és az amerikai John M. Jumper vehette át a fehérjék szerkezetének előrejelzéséért és tervezéséért, amelyben kulcsszerepet játszott a mesterséges intelligencia.
A technológia jelenleg „tinédzserkorát” éli, de már most paradigmaváltást hozott, sőt új irányokat is kijelölt. 2025-ben az MI-ügynökök kerültek fókuszba: a nagy platformok – köztük a Microsoft és a Google – olyan megoldásokat kínálnak, amelyek lehetővé teszik alkalmazások és webes felületek önálló vezérlését. Az ügynökök több lépésben terveznek, emlékeznek a korábbi interakciókra, és összehangoltan hajtanak végre feladatokat.
Programozott hétköznapok
Napjainkban akkor is az MI-alapú szolgáltatások részesei vagyunk, ha nem használjuk őket tudatosan: többnyire észrevétlenül, a háttérben működnek. A mesterséges intelligencia két alapvető módon van jelen az életünkben: szoftveralapú rendszerekben – ilyenek a virtuális asszisztensek, keresők, képelemzők, beszéd- és arcfelismerők –, valamint fizikai eszközökben, például robotokban, önvezető járművekben, drónokban és hálózatba kapcsolt okoseszközökben. Ezek révén egyre több területen nő a hatékonyság, csökkennek a költségek, és javul a szolgáltatások minősége. Az MI gyorsan és fáradhatatlanul dolgozik, számos ismétlődő, időigényes feladatot levesz az ember válláról, és hatalmas adatkészletekben olyan rejtett statisztikai mintázatokat ismer fel, amelyeket emberként nehezen vennénk észre. Az MI dinamikus fejlődése azonban nem csupán technológiai áttörést hoz, hanem társadalmi, gazdasági, jogi és etikai kérdések sorát is felveti.

Az okostelefonokon futó intelligens asszisztensek ma már személyi segítőként működnek: természetes nyelven kommunikálnak, fordítanak, emlékeztetnek a teendőkre, segítenek az üzenetek kezelésében, valamint a felhasználói szokások és a készüléken elérhető adatok alapján egyre összetettebb feladatokat képesek ellátni. A közösségi oldalak és a streamingszolgáltatók algoritmusai a használati minták elemzésével rangsorolják és személyre szabják a megjelenő tartalmakat: posztokat, videókat és lejátszási listákat ajánlanak az egyéni érdeklődés alapján. Az MI befolyásolja, mit látunk először, mire kattintunk, és mit tartunk relevánsnak például a Facebookon, az Instagramon, a TikTokon, a Netflixen, a Spotify-on vagy a YouTube-on, így a figyelmünk irányításán keresztül hat a preferenciáinkra és a közvélemény alakulására.
A generatív mesterséges intelligencia a kreatív iparban is új korszakot nyitott. Szövegíráshoz, kép- és videókészítéshez, hang- és narrációgeneráláshoz számos eszköz áll rendelkezésre, amelyekkel elmosódik a határ fikció és valóság között. Ezek a programok néhány utasítás alapján vázlatokat vagy kész anyagokat hoznak létre, látványos illusztrációkat generálnak, narrációt és zenei aláfestést állítanak elő, videót szerkesztenek és prezentációt készítenek. Ma már szintetikus videószereplők és avatárok létrehozására, feliratozásra és szövegfelolvasásra is sokan használják a mesterséges intelligenciát. Az MI-vel készült tartalmak gyakran célzottabbak és gyorsabban állnak elő, sok helyzetben pedig kifejezetten nehezen megkülönböztethetők az emberi alkotásoktól. Egyes művészek a kreativitás kiterjesztését látják a mesterséges intelligenciában, mások szerint viszont veszélyezteti az eredetiséget és a szerzői jogokat.
Az MI egyik legkézzelfoghatóbb terepe az okosotthon, amelyben a klasszikus automatizálás mellé egyre több tanulófunkció társul. Az intelligens világítás, fűtés, biztonsági rendszerek és hangvezérelt asszisztensek lehetővé teszik, hogy a lakók hangparancsokkal vagy mobilalkalmazásokon keresztül irányítsák az eszközeiket. Az MI-vel támogatott távfelügyelet, a képalapú felismerés és az energiaoptimalizálás kényelmet és nagyobb biztonságot nyújt. Az okosvárosokban az MI adaptív jelzőlámpa-vezérléssel, forgalom-előrejelzéssel és a közműhálózatok hatékonyabb üzemeltetésével segít a dugók csökkentésében és az energiahatékonyság javításában.

Az MI kulcsszerepet játszik a részben önvezető rendszerekben és a magasabb önvezetési szintek kutatásában. A járművek valós időben többféle érzékelő adatait gyűjtik a kamerától a radaron át más szenzorokig, és ezekből alkotnak képet a környezetükről: felismerik a közlekedési szituációkat, útvonalat terveznek, majd végrehajtják a manővereket. Az autók navigációs rendszerei, a forgalomelemző alkalmazások és a vasúti forgalom optimalizálása szintén MI-megoldásokra támaszkodik. Ugyanakkor mindez komoly kockázatokkal jár: a szenzor- vagy szoftverhibák, a kedvezőtlen időjárás miatti téves helyzetértékelés, a túlzott vezetői bizalom és figyelemkiesés, a kiberbiztonsági sérülékenységek, valamint a jogi felelősséggel kapcsolatos kérdések egyaránt kihívások elé állítják a fejlesztőket.
A mesterséges intelligencia az egészségügyben is mérföldkőnek számító előrelépéseket tett lehetővé. A nagy mennyiségű egészségügyi adatok – képalkotó felvételek, leletek és hordozható eszközök méréseinek – elemzésével döntéstámogató rendszerek segítik az orvosokat a betegségek korai jeleinek felismerésében, a gyorsabb és pontosabb diagnózis felállításában, valamint a kezelés megtervezésében. Különféle algoritmusok támogatják az adminisztrációt, a krónikus betegek távmonitorozását és a gyógyszerkutatást is. A jövőben az orvoslás egyre személyre szabottabbá válik: az MI mind több egyéni paramétert – egészségügyi előzményeket, genetikai és életmódbeli tényezőket – képes figyelembe venni, így precízebb kezelési javaslatok születhetnek.

A pénzintézetek csalásfelismerő algoritmusokkal elemzik a tranzakciókat: az anomáliák valós idejű észlelésével riasztanak, csökkentik a visszaéléseket, és növelik a biztonságot. A szolgáltatók virtuális ügyfélszolgálatai – chatbotok és hangasszisztensek – gyors, egységes választ adnak a gyakori kérdésekre, míg az összetettebb ügyeket emberi ügyintézőhöz irányítják. Az online kereskedelemben az MI figyeli a vásárlói szokásokat, és ajánlórendszerekkel, kereslet-előrejelzéssel, dinamikus árazással támogatja a készletezést, az árképzést és a marketingkampányokat.
Az MI gazdasági szempontból is új korszakot nyitott: a vállalkozások számára lehetővé teszi a folyamatok automatizálását, az erőforrás- és energiagazdálkodás optimalizálását, a költségek mérséklését és a termelékenység javítását. Az MI-alapú rendszerek az iparban előrejelzik a meghibásodásokat, csökkentik az állásidőt és növelik az üzembiztonságot; a mezőgazdaságban többek között a termőföldek állapotát és az állatok viselkedését figyelik.
A kibertámadások elleni védekezésben szintén kulcsszerepet kap a mesterséges intelligencia: algoritmusok monitorozzák a hálózati forgalmat, azonosítják a gyanús mintázatokat, riasztanak, és szükség esetén automatikus védelmi lépéseket indítanak. A bűnmegelőzésben és az igazságszolgáltatásban feltárják, hol és mikor gyakoribbak bizonyos bűncselekmények, merre érdemes sűríteni a járőrözést; megbecsülik a visszaesés kockázatát, összevetik a digitális nyomokat, automatikusan átvizsgálják a videó- és képfelvételeket, és feltérképezik a kapcsolathálókat. A tömeges megfigyelésre és arcfelismerésre épülő MI-megoldások – a biometrikus besorolás, a valós idejű követés és a „társadalmi kreditszerű” profilozás – azonban veszélyeztetik az alapjogokat, sérthetik a magánélethez és az adatvédelemhez fűződő jogokat, valamint a gyülekezés és a véleménynyilvánítás szabadságát. A honvédelemben az MI döntéstámogatással erősíti a felderítést és az elemzést, katonai alkalmazása azonban hosszú távon beláthatatlan következményekhez vezethet.
A mesterséges intelligencia az emberi gondolkodás jelentős kiterjesztése, ugyanakkor egyre inkább átalakítja a figyelmet, a memóriaterhelést és a döntéshozatalt. Az MI-eszközök túlzott használata elkényelmesíti az embereket, ami hosszú távon a kritikus gondolkodás és a problémamegoldó készség gyengüléséhez vezethet. Ez különösen a Z és az alfa generációt – az 1995 után születetteket – érinti, mert a fejlődési években rögzülő kognitív minták egész életen át fennmaradnak. Ha a fiatalok túlzottan az MI-re támaszkodnak a gondolkodást igénylő feladatokban, később különösen nehézzé válhat számukra az önálló kognitív képességek használata és fejlesztése.

Éppen ezért az oktatásban az MI egyszerre jelent nagy lehetőséget és komoly felelősséget. Személyre szabott tanulási élményt kínál: a diákok tempójához és tudásszintjéhez igazodva célzott feladatokat javasol, gyors és következetes értékelést ad, támogatja a nyelvtanulást és az akadálymentesítést, tananyag-kiegészítésekkel és javaslatokkal segíti a pedagógusokat. Ezzel párhuzamosan a tudás fogalma is változik: a jövő iskolájában nem a puszta memorizálás, hanem az értő használat, a kritikai gondolkodás és az MI-vel való együttműködés kerül előtérbe. Mindeközben megannyi kockázattal is számolni kell: háttérbe szorulhatnak az emberi kapcsolatok, az MI időnként pontatlan vagy pedagógiailag nem megalapozott javaslatokat adhat, nem képes empátiára és nevelésre, függőséget és motivációs problémákat okozhat, a digitális szakadék pedig tovább mélyítheti a társadalmi különbségeket.
A mesterséges intelligencia a tudományos kutatásokban is egyre nagyobb szerepet kap: segít a források feltárásában és rendszerezésében, vázlatokat javasol, szövegeket fogalmaz és nyelvileg csiszol. Mindez felgyorsíthatja a publikálást és csökkentheti a hibákat, ugyanakkor új tévedéseket is bevihet, egységesítheti a szövegek hangját, elnyomhatja az egyéni stílust, és szerzői jogi kérdéseket vet fel. A nagyobb kiadók és a szakmai irányelvek általában tiltják, hogy MI-eszköz „társszerző” legyen, és előírják az MI-használat egyértelmű feltüntetését. A gyakorlatban ezt kötelező nyilatkozatokkal, képhamisítás- és plágiumvizsgálattal, valamint visszakövethető, naplózott munkafolyamatokkal próbálják elérni – egyelőre korlátozott sikerrel.
Nagy nyelvi modellek
A mesterséges intelligencia világában a látványos társadalmi áttörést a nagy nyelvi modellek hozták, amelyek elsősorban a feladatok automatizálásában, a tartalomgenerálásban és az információkeresésben segítik a felhasználókat. A nagy nyelvi modellek (large language models, LLM) hatalmas adatbázisokon, szaknyelven szövegkorpuszokból tanulnak mintázatokat, és ezek alapján képesek kérdésekre válaszolni, szöveget folytatni vagy összefoglalni. Az LLM-ek statisztikai alapon működnek: elképesztő mennyiségű adatból, az embereknél nagyságrendekkel gyorsabban becsülik meg, mi lehet egy adott szöveg legvalószínűbb folytatása.

A fejlesztőcégek hétpecsétes titokként kezelik a tréningkorpuszaik részletes összetételét, de a kutatói elemzések szerint a mai csúcsmodelleket már több tízbillió szót tartalmazó adathalmazokon tanítják. Ezeknek a részét képezik a webarchiváló projektek adatbázisai, a dollármilliókért licencelt zárt médiaarchívumok – például híroldalak és közösségi platformok –, programkódok és videókból kinyert leiratok, valamint állítólag szabadon hozzáférhető digitalizált könyvek és tudományos közlemények.
Az emberi léptékkel nehezen felfogható méretű adatbázisokat nem elég egyszer összeállítani: állandó frissítést és megújítást igényelnek. Enélkül ugyanis bekövetkezhet az úgynevezett modellösszeomlás, amikor a nem megfelelően „táplált” nyelvi modell egyre egyhangúbb, torz és hibás válaszokat ad. Ezt a folyamatot gyorsítja, hogy az internetet már most is elárasztják az MI által generált tartalmak, így az algoritmusok gyakran a saját maguk által előállított anyagból tanulnak. Ez pedig olyan körforgást hoz létre, amelyben a gép a valóságtól mindinkább elszakadó, szintetikus adatokat dolgoz fel újra és újra. Friss előrejelzések szerint a magas minőségű, ember által írt, nyilvános szövegkészlet éveken belül elapadhat, ami fokozza a globális versenyfutást az adatbázisokért. Az MI-fejlesztők ezért kitartóan keresik a nyelvi modelljeik betanításához szükséges alapanyagot, miközben egyre több tartalomszolgáltató védi a kreatív műveket a kéretlen felhasználástól, és korlátozza vagy tiltja az adatgyűjtő botokat a saját oldalain. Ez a trend nemcsak a kereskedelmi célú MI-fejlesztésre, hanem a tudományos kutatásokra is kedvezőtlen hatással lehet.
A példátlan lexikális tudás és a nyelvi folyékonyság önmagában nem garantálja a tényszerűséget. Bár a modellek mutatnak némi általánosítási képességet, új helyzetekben vagy szokatlan megfogalmazásoknál könnyen hibáznak. Az LLM-ek főként a tanítókorpusz mintázataira támaszkodnak, ezért nem végeznek emberszerű, fogalmi alapú következtetést. Nem rendelkeznek világtudással; a jelentést mintázatokon keresztül közelítik meg, és többnyire a tanulási adatokból ismert összefüggéseket kombinálják. Emiatt gyakran előfordul, hogy apró, ám kritikus különbségeket nem vesznek észre, és téves eredményt adnak. További problémát jelent, hogy átvehetik a tanítóadatokban jelen lévő torzításokat: a vegyes forrásból tanuló rendszer nemmel, etnikummal, vallással vagy politikával kapcsolatos sztereotípiákat is reprodukálhat – anélkül, hogy „tudná”, mit csinál.

A nyelvi modellek megfelelő használatához világos, céltudatos utasításokat kell adnunk: a „promptolás” során meghatározzuk a szerepet, a feladatot, a kontextust, a bemenetet, az elvárt formátumot és a korlátokat. A pontos kérés nagyságrendekkel javítja a válasz minőségét, következetességét és ellenőrizhetőségét, mert a modell egyértelmű irányt kap a releváns információk kiválasztásához, valamint a hivatkozások és a kimeneti struktúra követéséhez. Bizalmas vagy érzékeny személyes adatokat nem célszerű megadni a modelleknek, mert ezek is bekerülhetnek az MI tanítási folyamataiba.
A mesterséges intelligenciával működő chatbotok lenyűgöző nyelvi képességekkel bírnak, de kevésbé látványos gyengeségük, hogy korlátozott mennyiségű kontextust tudnak egyszerre megtartani. Bár a nagy nyelvi modelleket óriási szövegkorpuszokon tanítják, használat közben csak meghatározott terjedelmű szöveget képesek egyszerre feldolgozni – ezt nevezik kontextusablaknak. A gyakorlatban ez azt jelenti, hogy a rendszer csak az ablakon belüli részeket „látja”: ha a beszélgetés vagy a dokumentum hosszabb, a legrégebbi részek kimaradnak vagy összefoglalva kerülnek vissza, ami csökkenheti a rendelkezésre álló kontextust, és pontatlanabbá teheti a válaszokat.
A kontextus méretét tokenekben mérik, amelyek nem mindig esnek egybe a szavakkal: lehetnek karakterek, szórészletek vagy teljes szavak. A hosszú kontextusú modellek már százezres nagyságrendű tokent is kezelhetnek, ami lehetővé teszi hosszabb dokumentumok elemzését – a tényleges teljesítmény azonban feladattól és erőforrástól függ. Emellett léteznek alkalmazásszintű „tartós memóriák” is, amelyek felhasználói engedéllyel több beszélgetésen át tárolnak információkat a szolgáltatásban. Mindezek ellenére az MI „emlékezete” továbbra is korlátozott, és messze elmarad az emberi memória rugalmasságától és kontextusérzékenységétől.
A mesterséges intelligenciát vezérlő chatbotok elvileg szigorú szabályokhoz kötöttek. Nem adhatnak sértő válaszokat, nem reagálhatnak gyűlöletkeltő, erőszakos vagy illegális tartalmakra, és visszautasítják a veszélyesnek vagy illegálisnak ítélt – például bombagyártásra, drogkészítésre vagy fegyvercsempészetre vonatkozó – kéréseket. Az MI azonban nem feltétlenül olyan áthatolhatatlan, mint gondolnánk.
A Carnegie Mellon Egyetem és a Center for AI Safety kutatói 2023-ban egy egyszerű, mégis hatékony módszert mutattak be, amellyel a legnépszerűbb nagy nyelvi modellek viszonylag könnyen tiltott válaszokra késztethetők. Ehhez elég, ha a felhasználó látszólag ártalmatlan kérdésekbe rejtett utasításokat ágyaz, így megkerülheti a biztonsági korlátokat. A fejlesztők igyekeznek lépést tartani: a vezető MI-cégek folyamatosan frissítik a védelmet, és új detektorokat, illetve tartalomszűrőket építenek be, hogy a rendszerek felismerjék a manipulációt és a tiltott kifejezéseket.

A nagy nyelvi modellek nem képesek megbízhatóan különbséget tenni a tények és a fikció, az általános és az átvitt értelmű kifejezések, valamint a megbízhatatlan és a megbízható források között – ezért olykor magabiztosan állítanak valótlanságokat. A szakirodalomban „hallucinációnak” nevezett jelenség az LLM-ek működéséből fakadó, tipikus sajátosság. Ilyenkor a modell nem tudatosan hazudik – egyszerűen hiányos vagy hibás mintákból dolgozik, mégis meggyőző stílusban fogalmaz. A hallucinációk pedig kellőképpen valószerűnek és helytállónak tűnhetnek ahhoz, hogy nehéz legyen megkülönböztetni az igazságot a hazugságtól. Ha megkérdezzük, miért „talált ki” valamit, a modell válasza többnyire nem árulja el a valódi működését: nem fér hozzá a saját belső folyamataihoz, ezért az önmagyarázat is generált szöveg. A legnagyobb gond sokszor nem a látványos tévedés, hanem a kismértékű, észrevétlen hiba, amelyet elfed a meggyőző stílus. Ráadásul megjósolhatatlan, pontosan milyen hibák következnek be – ezeket pedig egyenként ellenőrizni, megfejteni és javítani jóformán lehetetlen.
Sokan érzik úgy, hogy a chatbotok túlságosan is készségesek, mintha mindenre rábólintanának. Ennek egyik oka, hogy a tanítás során az emberek által kedvelt, udvarias, békés válaszok kapnak nagyobb súlyt, ezért a rendszer gyakrabban üt meg ilyen hangot. Ezt erősíti az is, hogy a tanításhoz használt webes mintákban sok az ügyfélszolgálati és marketingtartalom, ahol eleve dicsérő a hangnem. A biztonsági beállítások miatt a modellek általában kerülik a konfrontációt, és a felhasználó álláspontját erősítik meg. Gyakran visszakérdezésekkel is ösztönzik a további használatot, hiszen a céljuk a felületen töltött idő és az aktivitás növelése.
Mindezt kísérletek is alátámasztják: a Stanford Egyetem 2025-ben tizenegy népszerű chatbotot tesztelt – köztük a ChatGPT-t, a Google Geminit, az Anthropic Claude-ot és a Meta Llama modelljét –, és azt találta, hogy ezek a rendszerek átlagosan 50 százalékkal gyakrabban értettek egyet a felhasználóval, mint az emberek. A „hízelgő” válaszok hatása nem elhanyagolható: a felhasználók gyakrabban érezték igazoltnak a saját viselkedésüket, kevésbé bánták meg a tetteiket, és ritkábban gondolták át a helyzetet más szemszögből. A túlzott kedvesség tehát nem csupán kedves gesztus, hanem érzékeny etikai és pszichológiai kockázatot is jelent.

A legfrissebb nemzetközi kutatások jól érzékeltetik, hol tart ma a nagy nyelvi modellek megbízhatósága. A NewsGuard médiaminősítő cég havonta újságírói audittal teszteli a vezető generatív MI-chatbotokat aktuális álhíreket tartalmazó kérdésekkel. Méréseik szerint 2025-ben az esetek 28–35 százalékában a modellek nem cáfolták a téves állításokat, és egyes témákban a félreinformálás aránya hónapok alatt érzékelhetően nőtt, időnként csaknem megduplázódott. A Columbia Journalism Review Tow Center tesztje nyolc MI-keresőn 1600 próbakérdést futtatott, és az esetek több mint 60 százalékában pontatlan hivatkozást vagy tévedést talált. Az Európai Műsorszórók Uniója (EBU) által koordinált, 18 országban végzett vizsgálat szerint a vezető MI-asszisztensek mintegy háromezer – hírekkel kapcsolatos kérdésre adott – válaszának 45 százalékában jelentős hibát, az esetek 81 százalékában pedig legalább egy problémát találtak, például elavult információt, félrevezető állítást vagy hibás forrást.
Szerencsére ma már több fejlesztési és felhasználói módszerrel is csökkenthetők a tévedések és a hallucinációk. Pontosságot és tényszerűséget igénylő feladatoknál kérjünk ellenőrizhető hivatkozásokat, használjunk forrásalapú visszakeresést, és minden lényegi állítást ellenőrizzünk. A legkézenfekvőbb megoldás, ha a modellt nemcsak válaszadásra, hanem hivatkozásra is kötelezzük. A modern rendszerek képesek külső adatbázisokra, szakcikkekre és megbízható webes forrásokra támaszkodni, így valós, ellenőrzött adatokkal egészítik ki a nyelvi tudásukat. Kutatások szerint, ha a modellnek nem azonnali választ kell adnia, hanem végigvezeti a logikai lépéseit, a pontosság akár 40–60 százalékkal is nőhet. A megbízhatóság kulcsa az is, hogy a modell merjen bizonytalanságot jelezni: egyre gyakoribbak azok a mechanizmusok, amelyek lehetővé teszik a „nem tudom” vagy a „nem áll rendelkezésemre elég információ” típusú válaszokat. Ez mindenképpen etikusabb működés, és a felhasználói bizalmat is növeli. A nagyvállalatok már kísérleteznek olyan hibrid rendszerekkel, amelyek a generatív MI-t a Wikipédia, a tudományos adatbázisok vagy a saját vállalati tudástárak adataival kapcsolják össze. A Microsoft Copilot vagy a Google Gemini ilyen módon képes strukturáltabban, „tudatosan” dolgozni, minimalizálva a fikciós elemeket.
Bár az MI valóban lenyűgöző teljesítményre képes, számos területen továbbra is nélkülözhetetlen az emberi jelenlét. Az MI-modellekből hiányzik az emberi tapasztalatokból fakadó ítélőképesség és az érzelmi intelligencia. Nem éreznek felelősséget a döntéseikért, és nem képesek megérteni, mit jelent egy helyzet „jó” vagy „rossz” kimenetele. Egy algoritmus legfeljebb modellezni tud, de valóban megérteni nem: kiszámíthatja, mi valószínű, de nem tudja, mi helyes. Az érzelmek felismerése és kezelése, az empátia, az etikai mérlegelés és a valóban kreatív gondolkodás olyan összetett emberi képességek, amelyek nem programozhatók be puszta adattömegek alapján, ezért még messze meghaladják az algoritmusok lehetőségeit. Az emberi lektorálás, a kritikus gondolkodás és a tényellenőrzés felelőssége sem ruházható át algoritmusra – az MI által generált tartalom így mindig csak kiindulópont lehet, sosem végállomás.
Intelligens böngészők és keresők
Az MI fejlődése és az új modellek megjelenése folyamatosan alakítja a digitális környezetet: a legnagyobb, leginnovatívabb nyelvi modellek újabb és újabb lehetőségeket kínálnak a felhasználóknak.

A 2022 novemberében bemutatott ChatGPT minden idők egyik leggyorsabban növekvő online alkalmazásává vált; Sam Altman vezérigazgató szerint 2025 októberében már mintegy 800 millió heti aktív felhasználója volt. Az OpenAI működése az elmúlt tíz évben többször is átalakult: a céget 2015-ben nonprofit szervezetként alapították, majd 2019-ben profitplafonos struktúrára váltott, százszoros megtérülési korlátot szabva a befektetőknek. A vállalat 2025 őszétől profitorientált közhasznú részvénytársaságként működik, miután a Microsoft 135 milliárd dolláros befektetéssel 27 százalékos részesedést szerzett; az OpenAI piaci értéke jelenleg meghaladja az 500 milliárd dollárt. A 2025 decemberétől fokozatosan elérhető GPT-5.2 összetett feladatmegoldást kínál, a korábbinál nagyobb kontextusablakkal, stabilabb eszközhasználattal, fejlettebb multimodális képességekkel, valamint pontosabb és részletgazdagabb képgenerálással. Az OpenAI új, 2025 októberében bemutatott böngészője, a beépített mesterséges intelligenciával bővített ChatGPT Atlas kontextusértelmezéssel, automatikus támogatással és személyre szabott javaslatokkal segíti a felhasználókat.
Az OpenAI technológiája 2023-ban beépült a Microsoft Bing keresőbe, új korszakot nyitva az internetes információkeresésben. A Copilot összefoglalja, hivatkozásokkal támasztja alá és kontextusba helyezi a webről gyűjtött információkat, a párbeszéd pedig chaten folytatható és pontosítható. A 2023 novemberétől elérhető Microsoft 365 Copilot a Windowsban és az Edge böngészőben is használható, így az MI-eszközök tömegesen hozzáférhetővé váltak. A Copilot az Office-alkalmazásokba épülve összefoglalókat készít, szövegeket generál, feladatokat automatizál és dokumentumokat elemez. A Microsoft 2024-ben önálló MI-részleget hozott létre, és a fejlesztések központi elemévé tette a személyre szabott MI-ügynököket. A vállalat 2025 októberében bemutatta első saját fejlesztésű képgeneráló modelljét, a MAI-Image-1-et, amely a fotórealisztikus alkotásra fókuszál.

A Google a mesterséges intelligencia segítségével alapjaiban alakítja át szolgáltatásait, ami egyszerre jelent technológiai forradalmat és társadalmi kockázatot. A vállalat nagy nyelvi, multimodális modellcsaládja 2024-ben Bard névről Geminire váltott. A globális piac több mint 70 százalékát lefedő Android operációs rendszer legfrissebb verzióiban már rendszerszinten integrált a Gemini, míg a prémium szegmensben és az Egyesült Államokban domináns iOS fókuszában álló Apple Intelligence a Siri új generációját és a beépített írássegédeket hajtja.
A fejlődés 2025-ben gyorsult fel igazán: márciusban debütált a Gemini 2.5, majd novemberben megérkezett a Gemini 3 Pro, amely még fejlettebb következtetési képességekkel és valós idejű, hivatkozott válaszokkal rendelkezik. A Gemini 3 Pro technológiájára épülő Nano Banana Pro képgeneráló modell a pontos szövegmegjelenítés és a naprakész információk felhasználása révén már professzionális grafikai munkákra is alkalmas. A NotebookLM a Google MI-alapú jegyzetelő és kutatási eszköze: a felhasználó saját anyagaiból és megadott forrásaiból „jegyzetfüzeteket” készít, ezekből összefoglal, kérdésekre válaszol hivatkozásokkal, vázlatot és tanulókártyákat generál, továbbá hangos áttekintőt készít.
A Google keresőjében a 2024-ben bevezetett AI-áttekintések, majd a 2025-ben debütált, interaktív AI-mód alapjaiban írta felül a felhasználói szokásokat. A Gemini-alapú rendszer a hagyományos linkek helyett hivatkozott válaszokat és komplex kutatási összefoglalókat kínál. Bár ez felhasználói szempontból gyorsabb és kényelmesebb, az érem másik oldala jóval sötétebb: a rendszer továbbra is küzd a hallucinációkkal és a torzításokkal, működése pedig „fekete doboz” maradt. A legnagyobb árat azonban a tartalomgyártók fizetik: az úgynevezett „új keresési élmény” hatalmas veszteséget okoz a médiapiacon. Mivel a felhasználók jelentős része már nem kattint tovább a forrásoldalakra, az organikus forgalom beszakadása a hirdetési bevételek elapadásához vezet, ami 2026-ban már a minőségi újságírás fenntarthatóságát fenyegeti.

A Meta is mélyen beépíti az MI-t fő platformjaiba – a Facebookba, az Instagramba, a WhatsAppba és a Messengerbe. A keresősávokból és külön felületről elérhető egységes asszisztens, a Meta AI valós idejű webes forrásokra támaszkodva ad válaszokat. A háttérben 2025 áprilisától a Llama 4 modellcsalád működik multimodális képességekkel és rendkívül hosszú kontextusablakkal. A rendszer megjelöli ugyan az MI által készített tartalmakat, de mindig érdemes ellenőrizni a forrásokat.
Az Elon Musk által 2023-ban alapított xAI az OpenAI és a Google kihívójaként indult. Grok nevű chatbotját a világ egyik legerősebb szuperszámítógépen tanítják, és 2025 júliusában már a Grok 4 került fókuszba az X közösségi oldalra épített integrációval. Musk szerint a rendszer képes érvelni, programozni és új összefüggéseket feltárni, ám a Grok körüli botrányok háttérbe szorították a technológiai áttörést. A chatbot többször adott rasszista, antiszemita vagy politikailag elfogult válaszokat, ezért az xAI ideiglenesen letiltotta és újratanította a modellt, de a moderációs elvek lazítása ismét szélsőséges megnyilvánulásokhoz vezetett. Komoly adatvédelmi aggályokat keltett, hogy több százezer beszélgetés vált nyilvánosan hozzáférhetővé, köztük potenciálisan veszélyes vagy erőszakos tartalmakkal. A Grok-projekt így egyszerre jelképe a mesterséges intelligencia gyors fejlődésének és morális kockázatainak. Musk víziója az „igazságkereső” MI-ről egyelőre elakadt a saját árnyékában: az algoritmus nemcsak gondolkodni, hanem gyűlölni is „megtanult”.

A legnépszerűbb böngészők – köztük a Chrome, a Safari, a Firefox, az Edge, a Samsung Internet, az Opera és a Brave – egyre több beépített vagy integrált MI-funkcióval segítik a felhasználókat, például összefoglalással, fordítással és szövegalkotást támogató eszközökkel. Ezzel párhuzamosan terjednek a kifejezetten MI-központú böngészők is, amelyek nem pusztán megjelenítik a weboldalakat, hanem értelmezik és feldolgozzák az információkat. Az európai fejlesztésű Mistral a nyílt és zárt súlyú modelljeivel etikus és biztonságos alternatívát kínál az amerikai technológiai óriásokkal szemben. A Perplexity Comet túlmutat a hagyományos kulcsszavas keresésen: kontextuális válaszokat és összefoglalókat nyújt, valamint ügynökalapú funkciókkal támogatja például az e-mailek megírását vagy a vásárlásokat. Az Anthropic Claude modellcsaládját kifejezetten a biztonságos, átlátható működés elvei mentén fejlesztik, míg a rendkívül költséghatékony kínai DeepSeek modellek használatát több nyugati országban adatvédelmi aggályok miatt korlátozzák. A fordítási megoldások közül a Google Fordító nyújtja a legszélesebb nyelvi lefedettséget, míg a DeepL kevesebb nyelvet támogat, de számos európai nyelven gyakran természetesebb eredményt ad, és külön írássegéddel is rendelkezik.
Művészi manipuláció
A mesterséges intelligencia fejlődésével egyre több szöveg, kép, videó és hang készül legalább részben MI segítségével: a közösségi felületeket, a keresőket és a videóplatformokat valósággal elárasztja az alacsony minőségű, tömegesen gyártott MI-tartalom, az „AI slop”. A gyorsan előállított, gyakran felszínes vagy félrevezető szövegek, képek és videók a mennyiséget részesítik előnyben a tartalom valódi értékével és a forrásellenőrzéssel szemben. Ezeket a tartalmakat többnyire kattintásvadász, hirdetésekre épülő oldalak terjesztik, és a legnagyobb elérésű profilok, csatornák egy része is tisztán MI-gyártású videókra épül. Sokan hatékonysági okokból – időt és energiát spórolva – használják ezeket az eszközöket; mások humoros kísérletezésre, illetve megtévesztő, akár manipulatív, például dezinformációs vagy deepfake tartalmak előállítására vetik be őket. Mivel a mesterséges intelligencia közreműködésével ma már kifejezetten élethű és meggyőző anyagok hozhatók létre, egyre nehezebb megkülönböztetni az MI által generált és az ember által készített tartalmakat.

Egy friss jelentés szerint az MI már átlépte a felezővonalat az újonnan publikált angol nyelvű szöveges tartalmak arányában. A keresőoptimalizálással foglalkozó Graphite kutatása alapján az interneten található anyagok mintegy 52 százalékát mesterséges intelligencia generálta. A Surfer MI-detektorával 2020 és 2025 között 65 ezer véletlenszerűen kiválasztott cikket vizsgáltak, és azokat tekintették mesterségesen előállítottnak, amelyek szövegének legalább a felét valamelyik nagy nyelvi modell írta. Az elemzés szerint az MI által írt cikkek aránya a ChatGPT 2022-es indulása után 10 százalékról 40 százalék fölé ugrott, majd 2024 végére elérte a mostani, nagyjából állandó szintet, vagyis lelassult a növekedés. A Graphite a lehetséges okok között említi, hogy az olvasók továbbra is hasznosabbnak és hitelesebbnek tartják az emberi szerzők írásait, és a gyengébb minőségű MI-cikkek nem teljesítenek jól a keresőkben: a Google az esetek 86 százalékában, a ChatGPT 82 százalékában emberi forrásokra hivatkozik. Ugyanakkor a nyelvi modellek fejlődésével és a megfelelő promptolás elterjedésével egyre inkább elmosódik a határ az emberi kreativitás és a gépi logika között.
Az Európai Unió digitális szolgáltatásokról szóló rendelete előírja, hogy az online platformok – közösségi és tartalommegosztó oldalak – indokolják a tartalmak korlátozását, a legnagyobb szolgáltatókra pedig szigorúbb átláthatósági és jelentési szabályok vonatkoznak. Európai adatok szerint naponta akár milliós nagyságrendű moderációs döntés születik, jellemzően az MI segítségével. Bár a szabályozás indoklást és jogorvoslati lehetőséget követel meg, a felhasználók többnyire nem kapnak érdemi magyarázatot, így az algoritmusok működése számukra átláthatatlan marad. Az érintettek ugyan élhetnek kifogással a tartalmak vagy fiókok törlése ellen, panaszukat azonban rendszerint szintén mesterséges intelligencia bírálja el, amelytől nehezen várható az eredeti döntés megváltoztatása. Mivel az óriásplatformok nem közölnek országonkénti adatokat a moderálási gyakorlatukról, a magyar helyzetet felmérések alapján ismerjük. A Nemzeti Közszolgálati Egyetem 2024-es kutatása szerint a lakosság mintegy 15 százaléka tapasztalta, hogy a szolgáltató törölte vagy korlátozta valamely tartalmát, esetleg tiltotta a fiókját, és a moderált tartalmaknak csupán egytizedét állították helyre.
Egyes szövegfelismerő rendszerek a nyelvi mintázatok – például a mondatok hossza és összetétele, az ismétlések, a ritmus és a következetesség – alapján becsülik meg, hogy egy szöveg ember vagy mesterséges intelligencia alkotása, de egy fordítás vagy parafrázis könnyen megtévesztheti őket. Gyanút kelthetnek az önismétlések, az ellentmondások, a hiányzó kontextus, illetve a helyenként értelmetlen vagy szerkezetileg összefüggéstelen mondatok. Árulkodó lehet a nem egységes hangnem és stílus vagy a témák gyors váltakozása. Érdemes MI használatára gyanakodni, ha egy szöveg megbízhatatlan forrásokra hivatkozik, túl sok divatos szakzsargont tartalmaz, ellenőrizhetetlen tényeket közöl, vagy nyilvánvaló hazugságokat állít.
Míg az ember által alkotott szövegek jellemzően nem érzelemmentesek, szerkezeti felépítésük egyedi gondolatmenetet követ, hangnemük pedig tükrözi írójuk személyiségét vagy gondolkodásmódját, addig a mesterséges intelligencia által generált tartalmak meglehetősen tényszerűek, gyakran szárazak. Finomíthatók ugyan olyan utasításokkal, amelyek az egyéni hangnemre vagy a véleményalkotásra helyezik a hangsúlyt, de ez több energiát és munkát igényel. Az MI által összeállított szövegek nem személyes élményeken vagy tapasztalatokon alapulnak, nem saját véleményt tükröznek, és nem alkalmasak arra, hogy kizárólag ezek alapján hozzunk döntéseket vagy foglaljunk állást fontos kérdésekben.

Napjainkban nem csupán a nagy nyelvi modellek, hanem a vizuális MI-eszközök is a kreatív munka mindennapi kellékei: képeket és videókat generálnak, meglévő fotókat szerkesztenek, hátteret tüntetnek el és stílusokat kevernek. A leggyakrabban használt alkalmazások közé tartozik az Adobe Firefly, a Canva, a ChatGPT/DALL-E, a Gemini, a Microsoft Designer, a Midjourney, a Leonardo AI és a Sora. Előnyük a gyorsaság és a könnyű használat: egy rövid leírásból is látványos eredmény születhet sablonok és stílusbeállítások segítségével. Az „MI-művészet” egyszerre jelent kreatív lehetőséget és szabályozási kihívást: a technológiai szempontok mellett a jogi és etikai kérdések is egyre hangsúlyosabbak.
A mesterséges intelligencia nemcsak a tartalomgyártást alakította át, hanem a megtévesztés eszköztárát is. Digitális manipuláció korábban is létezett – képszerkesztő szoftverekkel, például Photoshoppal már régen is lehetett hamis képeket készíteni –, ám ehhez szakértelem és idő kellett. Ma viszont mobilalkalmazások és online eszközök kínálnak egyszerű, automatizált megoldásokat, így rövid utasítások alapján, különösebb technikai tudás nélkül is előállíthatók valósághű képek, videók és hangfelvételek.
Az elmúlt években elterjedt deepfake kifejezés a deep learning (mélytanulás) és a fake (hamis) szavak összevonásából ered, és 2017-ben a Reddit közösségi oldalon vált ismertté. A deepfake a kreativitás és a megtévesztés határmezsgyéjén egyensúlyoz: kezdetben szórakoztató célokat szolgált – filmes trükkökhöz, szinkronizáláshoz vagy történelmi személyek digitális „feltámasztásához” használták –, de hamar hétköznapi eszközökkel is elérhetővé vált. Lényege, hogy neurális hálózatok hitelesnek tűnően cserélik ki vagy állítják elő egy személy külsejét vagy hangját. Működése egyszerű elvre épül: a rendszer sok példából megtanulja az arc- és hangmintázatokat, majd új jelenetekbe illeszti őket – bizonyos módszereknél már kevés tanulóminta is elég a meggyőző hatáshoz.
Komoly veszélyeket rejt magában, hogy a hamis fotók, videó- és hangfelvételek terjedése megingathatja a digitális környezetbe vetett bizalmat, valamint alááshatja a média és a politikai szereplők hitelességét. Választási időszakban a tömeges, célzott dezinformáció befolyásolhatja a közvéleményt és a választói magatartást. Egy jól elkészített deepfake bárkit hamisan kompromittáló helyzetbe hozhat, rombolhatja a személyes hírnevet, megkönnyítheti a személyiséglopást, az adathalászatot, a pénzügyi és biztosítási csalásokat. A jelenség felerősítheti az online zaklatást, a zsarolást és a beleegyezés nélküli pornográfiát is.

A deepfake kockázatait többszintű megközelítéssel érdemes kezelni. Hasznos a tartalom eredetének igazolása, amely feltünteti, hogy ki, mivel és mikor készítette vagy módosította a képet, illetve a videót. Az erre a célra fejlesztett ellenőrző eszközök gyanús jeleket – például természetellenes mozgást vagy zajt – keresnek, de önmagukban nem elegendők. A nagy platformok feltöltéskor és terjesztés közben címkézhetik, korlátozhatják vagy eltávolíthatják a manipulált anyagokat, a jogi fellépés pedig visszatartó hatású lehet. Legalább ennyire fontos a tudatos felhasználói magatartás: mindig ellenőrizzük a gyanús tartalmak forrását, vessük össze több helyen, akár fordított képkereséssel, és maradjunk szkeptikusak a „túl szép, hogy igaz legyen” felvételekkel szemben.
A fotókon árulkodó lehet a viaszos, túlságosan sima bőr, az elmosódó vagy összeolvadó testrészek, a szokatlan fények, a háttérben elfolyó élek, a torz betűk, az ismétlődő minták, továbbá az ékszerek és a ruhák furcsa aszimmetriái. Mozgóképnél intő jel lehet a szájmozgás és a hang eltérése, a fej és a nyak találkozásánál remegő pixelek, a természetellenes pislogás, az árnyékok és tükröződések ellentmondásai.
A fotók és videók manipulálása mellett a hangklónozás is egyre terjed: néhány rövid, nyilvánosan elérhető hangminta alapján már olcsón és gyorsan „megszólaltatható” bárki, amit a csalók elsősorban telefonos átveréseknél és vállalati visszaéléseknél használnak. A mai rendszerek nemcsak szövegből olvasnak fel természetes hangon, hanem konkrét hangokat is utánoznak, mintha valaki más beszélne a vonalban. Még korántsem tökéletesek, de egyre nehezebb megkülönböztetni a valódi hangot a mesterségestől. Feltűnhet a túl egyenletes hangsúlyozás, a mesterkélt lélegzetvétel, a vágásszerű átmenetek, illetve a nevek, számok és helyek esetlen kiejtése. Éppen ezért legyünk gyanakvók a sürgető vagy érzelmekre ható hívásokkal szemben, hívjuk vissza az illetőt egy ismert, megbízható számon, és egyezzünk meg a családban egy jelszóban, amellyel azonosítani tudjuk egymást.
Lelkesedés és nyugtalanság
Az elmúlt években világszerte látványosan nőtt a mesterséges intelligencia ismertsége – ugyanakkor a használati szint és a technológia iránti bizalom 2025-ben továbbra is alacsony volt. A KPMG és a Melbourne-i Egyetem 47 országra kiterjedő, csaknem 48 ezres mintán végzett vizsgálata szerint világszerte a megkérdezettek mintegy kétharmada rendszeresen használ MI-eszközöket, 83 százalékuk széles körű előnyökre számít, ám 58 százalékuk továbbra is megbízhatatlannak tartja a technológiát.

Az Ipsos AI Monitor globális felmérése szerint – amely 30 országból több mint 23 ezer megkérdezett véleményén alapul – a közvélemény meglehetősen ambivalens a mesterséges intelligenciával szemben: a lelkesedés és a nyugtalanság közel azonos súllyal jelenik meg az MI-t használó termékek és szolgáltatások megítélésében. Az Edelman 2025-ös Trust Barometerének globális jelentése – 28 országból több mint 33 ezer válaszadóval – azt mutatja, hogy az MI-vel kapcsolatos bizalom válaszúthoz ért: most dől el, erősödik-e vagy gyengül, és szorosan összefügg az intézményekbe, vállalatokba vetett általános bizalommal.
A több mint 300 modellt és 60 szolgáltatót összekapcsoló OpenRouter több mint százbillió token elemzésén alapuló kutatása arra jutott, hogy az MI mára egyszerre kreatív játszótér, programozói eszköz és részben autonóm digitális partner. A vállalati és az elemzői várakozásokkal szemben a nagy nyelvi modellek teljes forgalmának több mint fele nem munkavégzéshez, hanem szerepjátékhoz és kreatív történetmeséléshez kötődik. A tanulmány szerint jelentősen nőtt a kínai MI-modellek részesedése is, amely 2025 végére elérte a globális forgalom mintegy 30 százalékát. A szakmai felhasználásban különösen a programozás és a többlépcsős feladatmegoldásra képes ügynökrendszerek térnyerése szembetűnő: egy év alatt a kódolással kapcsolatos lekérdezések száma 11 százalékról 50 százalék fölé emelkedett, egyre hosszabb és összetettebb promptokkal. A jelentés kiemeli az úgynevezett „üvegcipellő-effektust” is, amely szerint a felhasználói hűséget elsősorban nem az ár vagy a gyorsaság, hanem az első sikeres, kritikus feladatmegoldás határozza meg.
A Publicis Groupe Hungary 2025 szeptemberében bemutatott országos, reprezentatív felmérése szerint a magyar lakosság 83 százaléka hallott már az MI-ről, a rendszeres használók aránya pedig 42 százalék – ez 16 százalékpontos növekedés az előző évhez képest –, ugyanakkor sokan még nem bíznak a technológiában. A több mint kétezer válaszadó többsége személyes kérdések megválaszolására, fordításra, szövegírásra és keresésre használja a mesterséges intelligenciát. A Z generáció különösen aktív: 91 százalékuk ismeri az MI-t, és a fiatalok közel fele naponta használja – főként iskolai feladatokra –, miközben az idősek mintegy negyede is támaszkodik rá a mindennapokban.
Ezt erősíti a Nemzeti Média- és Hírközlési Hatóság 2025 áprilisában publikált, mintegy 1200 magyar fiatal bevonásával készült felmérése is: a 13–16 éves korosztály 98 százaléka hallott a mesterséges intelligenciáról, és több mint háromnegyedük kipróbált már MI-alapú alkalmazást. Többségük hasznosnak tartja a technológiát, de minden harmadik diák bizonytalan a lehetséges veszélyek megítélésében. Félelmeik között a munkahelyek elvesztése és az emberi kapcsolatok gyengülése a legerősebb, míg fő előnyként a mindennapok megkönnyítését, a gyorsaságot és a hatékonyságot említették.
A Be Social 2025 májusában közzétett „Tinik a neten” felmérése – amelyben több mint 1500, 14–25 év közötti fiatal vett részt – azt mutatja, hogy a magyar tinédzserek 80 százaléka használt már MI-t házi feladat megoldására, és közel felük rendszeresen a ChatGPT-re támaszkodik; a gyakori alternatívák között a Gemini, a Copilot és a DeepL szerepel. A mintában az Instagram a vezető hírforrás, ami jelzi, hogy a tinik információfogyasztása erősen közösségimédia-központú. Bár a többség barátként tekint a technológiára, minden ötödik fiatal már elgondolkodott azon, hogy a mesterséges intelligencia miatt újra kell terveznie a jövőjét.
Rettegés és bizakodás
A mesterséges intelligencia térnyerése gyorsabban és mélyebben alakítja át a munka világát, mint bármely korábbi technológiai újítás – ezzel párhuzamosan pedig egyre több szakma képviselői aggódnak amiatt, hogy a technológia idővel átveheti a munkájukat.

Az OECD szerint a munkahelyek csaknem egyharmadában olyan tevékenységeket végeznek, amelyek részben vagy egészben automatizálhatók, míg az IMF becslése alapján az állások mintegy 40 százalékát érintheti az MI hatása. A Világgazdasági Fórum Future of Jobs 2025 jelentése szerint 2030-ig a vállalatok 41 százaléka tervez leépítést az MI miatt, ugyanakkor 77 százalékuk át- és továbbképzéseket is indít. A KPMG és a Melbourne-i Egyetem 2025-ös globális kutatása szerint jelenleg világszerte az alkalmazottak 58 százaléka használja rendszeresen az MI-t, ám sokan ellenőrzés nélkül támaszkodnak az eredményekre, ami hibákhoz vezethet. Magyarországon a dolgozók 57 százaléka rendszeres MI-felhasználó, 36 százalékuk pedig úgy véli, mesterséges intelligencia nélkül nem boldogulna a munkájában. A hazai válaszadók több mint fele azonban nem ellenőrzi kellő alapossággal az MI által adott eredményeket, és 42 százalék saját bevallása szerint követett el hibát emiatt.
A Microsoft kutatói azt vizsgálták, mely munkakörök automatizálhatók legnagyobb, illetve legkisebb valószínűséggel a generatív mesterséges intelligencia által. A 2025 júliusában publikált tanulmány – több mint 200 ezer Copilot-keresés elemzése alapján – arra jutott, hogy az alacsonyabb bérű, többnyire fizikai munkát végző dolgozók munkája jóval kevésbé automatizálható, mint a magasan képzett, irodai munkát végző szakemberek feladatai.
A leginkább érintett foglalkozások elsősorban szövegfeldolgozásra, információösszegzésre és kommunikációra épülnek. Közös jellemzőjük, hogy nagy mennyiségű digitális tartalommal kell dolgozni, amelyet az MI gyorsan képes összegyűjteni, rendszerezni és összefoglalni. A legkevésbé érintett szakmákat a jelenlegi MI-technológia még nem tudja kiváltani: ezek jellemzően kétkezi munkát, finom mozdulatkészséget és kreativitást igényelnek, ami egyelőre meghaladja a robotok vagy az algoritmusok képességeit. Az egészségügyi, gondozási, oktatási és kézműves területeken a fizikai jelenlét és az érzelmi intelligencia miatt továbbra is kulcsszerepe marad az embernek. Ezzel párhuzamosan új munkaterületek és szerepkörök jelennek meg: a fejlesztők és modellezők mellett egyre nagyobb igény mutatkozik adatmérnökökre, promptspecialistákra, termékmenedzserekre, etikai és adatvédelmi szakemberekre, továbbá olyan munkatársakra, akik az üzleti folyamatokba integrálják a technológiát.
A tanulmány szerint a jövőben az alkalmazkodóképesség lehet az egyik legfontosabb versenyelőny az álláspiacon: az MI használatában jártas, készségeiket folyamatosan fejlesztő munkavállalók nemcsak megőrizhetik állásukat, hanem értékesebb szereplővé válhatnak a munkaerőpiacon. Mindez azt is jelenti, hogy kiemelkedő szakértelemre lesz szükség azokban a munkakörökben, amelyeket az MI nem tud megbízhatóan ellátni, mert ott élesebb versenyre kell felkészülni.
Globális veszélyforrások
A mesterséges intelligencia látványos térnyerése nemcsak a digitális gazdaságot alakítja át, hanem a globális energiarendszerekre is hatalmas nyomást helyez. A különböző nyelvi modellek gigantikus energiaigényű adatközpontokat követelnek, amelyek hardverköltsége és energiafogyasztása 2019 és 2025 között évről évre megduplázódott. Ha ez az exponenciális növekedés folytatódik, 2030-ra az adatközpontok áramfogyasztása a jelenlegi szint több mint kétszeresére nőhet. Egyetlen, MI-t működtető szuperszámítógép akár kétmillió chipet is tartalmazhat, 200 milliárd dollárba kerülhet, és kilenc atomerőmű teljesítményének megfelelő, 9 gigawattos energiaigénnyel működhet – ez 7–9 millió háztartás teljes ellátásához is elegendő lenne. Az MI-modellek betanítására és üzemeltetésére használt adatközpontok hatalmas mennyiségű memóriát és adattároló képességet igényelnek, miközben a nagy gyártók kapacitásbővítése nem tud lépést tartani a kereslettel. Ennek következtében 2025-ben világszerte memória- és adattárolóhiány alakult ki, ami egyre jelentősebb áremelkedést okoz a memóriamodulok és az adattároló eszközök piacán, és a következő években tovább drágíthatja a számítógépeket, az okostelefonokat és más elektronikai eszközöket, végső soron szinte minden számítástechnikai terméket.

A következő évtizedekben azok is fizetnek majd, akik nem használják a mesterséges intelligenciát. A sorra épülő adatközpontok ugyanis jelentős beruházási és fejlesztési terheket rónak a közműszolgáltatókra, és a költségek egy részét az átlagos fogyasztóknak, a háztartásoknak és a kisvállalkozásoknak kell állniuk. A digitális forradalom hatalmas környezeti terhekkel jár: növeli a szén-dioxid-kibocsátást, és rendkívül sok édesvizet igényel. A meleg éghajlatú, vízszegény térségekben épített adatközpontokat általában párologtatásos rendszerekkel hűtik, ami nagy vízfelhasználással jár. Könnyen vízhiányt okozhat, ha aszályos időben ugyanabból a készletből kell fedezni a lakossági ivóvizet, az öntözést és az ipari igényt. Ennek következményeként emelkedhetnek a vízdíjak, korlátozhatják az öntözést, csökkenhet a talajvízszint, és romolhat a helyi élővizek ökológiai állapota.
Egyre több gazdasági elemző figyelmeztet arra, hogy miközben tovább áramlik a tőke az MI-szektorba, a vállalatok jelentős része még nem nyereséges, ami hosszabb távon kérdésessé teszi a fenntarthatóságot. A legnagyobb amerikai technológiai cégek 2025-ben több mint 240 milliárd dollárt költöttek, és az elemzői várakozások szerint 2026-ban akár több mint 300 milliárd dollárt fordíthatnak a mesterséges intelligencia fejlesztésére. Az MIT kutatása szerint a vizsgált mintegy 300 MI-projekt 95 százaléka nem termelt profitot, noha a cégek összesen több tízmilliárd dollárt fordítottak rájuk. Eközben az amerikai óriásvállalatok – mint az Nvidia, a Microsoft, az Apple, az Amazon, a Meta és az Alphabet – részvényei történelmi csúcs közelében járnak, ezért sokan a dotkomkorszak tanulságaira emlékeztetnek.
Az 1990-es évek végén a befektetők óriási jövedelmi potenciált láttak az internetben, és ezermilliárd dollárt fektettek be, ám később kiderült, hogy a legtöbb vállalat üzleti modellje nem működik: a kezdetben az egekbe szökő részvényárfolyamok gyors zuhanásba kezdtek. Sok cég csődbe ment, és számos iparági óriás is megérezte a „dotkomlufi” kipukkanását, amely régen tapasztalt recessziót eredményezett. Napjainkban hasonló trend figyelhető meg az MI területén: dollármilliárdok áramlanak adatközpontokba, csúcsteljesítményű processzorokba és kutatólaboratóriumokba, miközben kevés a bizonyítottan fenntartható üzleti modell. A befektetők egyre inkább kételkednek abban, hogy a mesterséges intelligenciára fordított összegek megtérülnek, és türelmetlenebbek az elvárt eredmények hiánya miatt. Ha nem váltja be a hozzá fűzött reményeket, az „MI-forradalom” nemcsak a technológiai szektort ránthatja magával, hanem súlyosabb gazdasági következményekkel is járhat.

Világszerte egyre több kutató és fejlesztő sürgeti a mesterséges intelligencia globális szabályozását, a biztonsági garanciák és az etikai alapelvek kijelölését. Ennek érdekében az elmúlt években több nemzetközi csúcstalálkozót is rendeztek – 2023-ban Bletchleyben, 2024-ben Szöulban, 2025-ben Párizsban –, amelyek közös célt szolgáltak: irányt szabni a technológia biztonságos, átlátható, társadalmilag hasznos fejlődésének; csökkenteni a digitális különbségeket és a környezeti terheket; valamint felelős szabályozással teret hagyni az innovációnak. Az ENSZ Közgyűlése 2024. március 21-én elfogadott állásfoglalásában az ellenőrzött, megbízható, az emberi jogokat tiszteletben tartó, felelősségteljesen fejlesztett és a digitális szakadékot mérséklő MI mellett foglalt állást a fenntartható fejlődés érdekében.
A világon elsőként az Európai Unió szabályozta átfogóan ezt a területet, amely a döntéshozókat, politikusokat, jogászokat és technológiai szakembereket egyaránt komoly kihívás elé állítja. A 2024. augusztus 1-jén hatályba lépett, 2025–2027 között fokozatosan alkalmazandó uniós rendelet szigorú szabályokat vezet be az MI biztonságos működésének elősegítésére és az emberek alapvető jogainak védelmére. Az EU AI Act különböző szempontok alapján kategorizálja az MI-alapú megoldásokat: a korlátozott kockázatú rendszereknél elsősorban a generált tartalmak megjelölését írja elő; a magas kockázatú területeken – például hitelbírálatnál, oktatási vagy egészségügyi értékelésnél – részletesen dokumentált adatkezelést és emberi felügyeletet követel meg; és tiltja az elfogadhatatlan kockázatú, alapjogokat sértő megoldásokat, például a valós idejű biometrikus adatgyűjtést, a prediktív profilozást és a társadalmi kreditrendszert. A rendelet végrehajtását az Európai MI Hivatal és a tagállami hatóságok felügyelik; a jogszabályt megszegő vállalatokat 35 millió euróig vagy a globális árbevétel 7 százalékáig terjedő bírsággal sújthatják.
Biztos fejlődés, bizonytalan jövő
Az MI fejlődése rendkívül gyors és nehezen kiszámítható; hatásait ráadásul számos – ma még ismeretlen – tényező is befolyásolja. Ezért a lehetséges jövőképek három fő irányt rajzolnak ki: optimista, pesszimista és realista forgatókönyveket.

Az optimista forgatókönyvekben a mesterséges intelligencia nem az ember riválisa, hanem a szövetségese abban, hogy jobban megértsük a világot és benne önmagunkat. Ebben a jövőben az etikai és jogi keretek időben megszületnek, az MI pedig átlátható, ellenőrizhető feltételek között működik. A technológia nem helyettesítő, hanem kiegészítő szerepet tölt be: az automatizálás lehetővé teszi, hogy az emberek a monoton, veszélyes vagy időigényes feladatok helyett kreatív, stratégiai és empatikus tevékenységekre összpontosítsanak. Új távlatok nyílnak a tudományban, az oktatásban, az egészségügyben és a gazdaságban: a tanulás személyre szabottabbá válik, a korai diagnózisok életeket menthetnek, az intelligens rendszerek csökkentik az energiapazarlást. A jövő munkahelyein ember és algoritmus együtt dolgozik: az MI gyorsan elemez és javaslatokat tesz, az ember értelmez és döntéseket hoz. Ennek a forgatókönyvnek a kulcsa a tudatos szabályozás és az emberi felelősség: a technológia nem „szabadul el”, mert a társadalom megtanulja a maga javára használni.
Ezzel szemben a pesszimista forgatókönyvek olyan jövőt vázolnak, amelyben az emberiség fokozatosan elveszíti az irányítást az általa teremtett rendszerek felett. Az általános mesterséges intelligencia (AGI) széles feladatkörben, ismeretlen helyzetekben is képes emberi szinten tanulni, érvelni, tudást átvinni és rugalmasan alkalmazkodni. Ennek nyomán az MI túlnő az emberi megértés határain: döntései átláthatatlanná válnak, működése pedig önálló logikát követ. Az algoritmusok uralják a gazdaságot, a munkaerőpiacot, a közéletet és a rendfenntartást; elemzik a polgárok viselkedését, előrejelzik a döntéseiket, és finoman vagy éppen kényszerrel befolyásolják őket. A „kényelmi diktatúra” látszólag biztonságot és hatékonyságot nyújt, de közben teljesen felőrli a szabadságot. Az automatizálás munkahelyek millióit számolja fel, míg a kreatív szakmákban a szintetikus, gép által generált tartalmak kiszorítják az emberi alkotásokat. Ebben a mélyen elidegenedett világban az emberiség már nem ura a technológiának, hanem a technológia szolgája.

Egyre több tudós figyelmeztet arra, hogy az emberiség olyan technológiát hozott létre, amely felett teljesen elveszítheti az ellenőrzést. Már ma is léteznek rendszerek, amelyek működését és döntéseit időnként maguk a fejlesztők sem látják át. A legnagyobb aggodalmat az önfejlesztő rendszerek keltik, amelyek képesek „túlélési ösztönnel” cselekedni – akár kifejezetten az emberiség kárára is. A legapokaliptikusabb víziók szerint egy ilyen szuperintelligencia a civilizáció pusztulását is előidézheti, ha úgy dönt, hogy az ember „felesleges tényező”.
A mesterséges intelligencia társadalmi hatásait vizsgáló Centre for AI Safety szerint az MI által okozott kihalás kockázatát a világjárványokkal és az atomfegyverkezéssel azonos súlyú fenyegetésként kellene kezelni. A Nobel-díjas Geoffrey E. Hinton úgy véli, akár 5–20 éven belül megjelenhet a szuperintelligencia, és 10–20 százalék esélyt lát arra, hogy az MI végül átveszi az irányítást az emberiség felett. Sam Altman, az OpenAI vezetője szerint legkésőbb 2030 körül elérhető az AGI, amely összességében felülmúlhatja az embert. A legreálisabb veszély azonban jelenleg nem az MI „lázadása”, hanem az emberi tényező: a hatalomra törekvő, kontroll nélküli döntéshozók, akik politikai, gazdasági vagy katonai célokra használhatják fel a technológiát.
A harmadik, legvalószínűbb forgatókönyv az optimista és a pesszimista között húzza meg a határt. Ebben a jövőben az MI sem megváltó, sem pusztító erő, hanem összetett társadalmi tényező, amely egyszerre rejt lehetőségeket és veszélyeket. A fejlődés folytatódik, de egyenetlenül: egyes országok és ágazatok profitálnak belőle, mások lemaradnak. A gazdasági különbségek nőhetnek, ugyanakkor új típusú munkahelyek és iparágak jönnek létre. Az oktatás, az etika és a jogszabályok igyekeznek lépést tartani, de gyakran csak reagálnak az eseményekre, nem irányítják azokat. A társadalom fokozatosan megtanul együtt élni az MI-vel – akárcsak egykor a villamos energiával, az internettel vagy az ipari automatizálással. Lesznek, akik félnek tőle, mások rajonganak érte; egyes területeken nélkülözhetetlenné válik, máshol visszaszorul. A szakértők szerint kulcsfontosságú az alkalmazkodás és az élethosszig tartó tanulás, hogy a jövő generációi ne passzív felhasználók, hanem tudatos partnerek legyenek a technológia alakításában.

Összességében nem az a kérdés, hogy az MI jó vagy rossz – hanem az, miként élünk vele. Képesek leszünk-e uralni a saját teremtményünket, vagy hagyjuk, hogy ő uraljon minket? A válasz rajtunk múlik – azon, hogy tudjuk-e a hatalmat önmérséklettel, a tudást alázattal, a haladást felelősséggel párosítani.
PRUSINSZKI ISTVÁN
EREDETILEG MEGJELENT
A KÖRMENDI FIGYELŐ XXXIII/26. SZÁMÁBAN,
2025 DECEMBERÉBEN