Skip to main content

1

Bevezetés – Amikor a chatbot "megszólal"


A közösségi médiában, YouTube-videókban vagy baráti beszélgetésekben egyre 
gyakrabban hallani olyan mondatokat, mint:– „A ChatGPT szerint ez igaz.”– „Megkérdeztem az AI-t, és ő megmondta a véleményét.”– „A chatbot bevallotta, hogy...”
Ezek a mondatok önmagukban nem hangzanak furcsának – hiszen a mesterséges 
intelligencia úgy fogalmaz, mintha valóban gondolkodna, érezne, vitatkozna vagy 
meggyőzne. A baj csak az, hogy mindez csak látszat.
Ahogy a mesterséges intelligencia – különösen az úgynevezett nyelvi modellek – 
egyre több helyen jelennek meg a mindennapjainkban, fontosabb, mint valaha, hogy 
helyesen értsük meg, mit is csinálnak valójában ezek a rendszerek. Ugyanis ha 
félreértjük a működésüket, könnyen túlzott elvárásaink lesznek – vagy éppen 
megbízunk bennük olyan helyzetekben, ahol nem lenne szabad.


Ez az esszé abban szeretne segíteni, hogy tisztábban lássunk. Megnézzük:
• hogyan „működik” a "MI" ami egy chatbot,
• mi az, amit tud, és amit nem,
• miért néha félelmetesen emberi a megszólalása,
• és mik azok a tipikus tévedések, amiket a felhasználók elkövetnek vele 
kapcsolatban.


Közben pedig olyan kulcsfogalmakat is közérthetően elmagyarázunk, mint a 
hallucináció, a temperature, a promptolás, vagy az, hogy „miért nem tanul tőlünk 
beszélgetés közben”.


Hogyan működik egy nyelvi modell?


Képzeljünk el egy olyan gépet, ami nem tud semmit a világról úgy, ahogy egy ember 
tud. Nincsenek élményei, nincsenek gondolatai, nincsenek meggyőződései. Viszont 
olyan hatalmas mennyiségű szöveget olvasott el, hogy remekül megtanulta, milyen 
szavak szoktak egymás után következni különböző helyzetekben.
Ez a gép nem más, mint egy nyelvi modell – például a ChatGPT is ilyen, de 
számtalan más nyelvi modell érhető el az interneten, némelyik helyileg is képes 
működni az arra megfelelő számítógépeken, internet kapcsolat nélkül.


Szövegből mintázatot tanul
A nyelvi modell nem tankönyvekből vagy adatbázisokból tanul konkrét tényeket. 
Ehelyett szövegek milliárdjait vizsgálja meg, és megtanulja, hogy ha egy adott 
mondat így kezdődik:
„A víz 100 Celsius-fokon…”
akkor a legvalószínűbb folytatás az, hogy:
„…forr.”
Ez nem azért van, mert „tudja” ezt a tényt – hanem azért, mert ezt a szókombinációt 
sokszor látta.
Nem gondolkodik, csak „tippel” a következő szóra, minden egyes lépésben. Ez olyan,
mintha valaki egy szókirakó játékot játszana, és mindig a legvalószínűbb következő 
szót választaná – hihetetlen gyorsasággal.


Példa 1: mintázatok követése
Ha beírjuk a következőt:
„Jó reggelt kívánok, ma az időjárás…”
akkor a modell valószínűleg így folytatja:
„…napos lesz és meleg, a hőmérséklet 25 fok körül alakul.”
Miért? Mert sok időjárás-jelentést látott már korábban, és ez a szóhasználat tipikus.


Példa 2: kreatív, de félrevezető válasz
Képzeld el, hogy ezt kérdezzük:
„Melyik Harry Potter-könyvben találkozik Dumbledore Yodával?”
A modell talán így válaszol:
„Dumbledore és Yoda nem szerepelnek együtt egyetlen hivatalos könyvben 
sem, de sok rajongói történetben előfordul az ilyen crossover.”
Ez a válasz valójában nem helytálló – hiszen Dumbledore és Yoda külön 
univerzumból származnak. Mégis, a válasz hihetőnek tűnik, mert a modell 
megtanulta, hogyan kell okosan hangzó mondatokat alkotni még akkor is, ha azok 
alapja nem létezik. Ezt a jelenséget hallucinációnak nevezzük, amire később még 
kitérünk.
Egy mondatban összefoglalva:
A nyelvi modell nem „tudja”, miről beszél – csak azt, hogyan szoktak emberek 
beszélni egy adott témáról.
Ezért olyan, mint egy nagyon gyakorlott szövegkiegészítő játékos, aki mindig a 
következő szó vagy mondat legvalószínűbb változatát próbálja kitalálni – és gyakran 
lenyűgözően jól csinálja.


A kreativitás kulcsa: a temperature és a prompt szerepe


A nyelvi modellek nem varázslók, de néha úgy tűnik, mintha azok lennének. Néha 
frappánsan válaszolnak, máskor szárazan vagy épp össze-vissza. Vajon mi irányítja 
ezt? Két dolog főleg: az egyik a prompt, vagyis amit kérdezel tőlük – a másik a 
temperature, vagyis hogy mennyire legyen „kreatív” a válasz.
A prompt – amit kérdezel, olyan választ kapsz
A „prompt” egyszerűen azt jelenti: amit a modellnek írsz. Ez lehet egy kérdés, egy 
utasítás vagy akár egy egész bekezdés.
Egy jó prompt nem csak pontos, de irányt is ad. Nézd meg ezeket a példákat:


Kevésbé pontos prompt:
„Írj valamit a macskákról.”


Jobban irányított prompt:
„Írj egy vicces, négysoros verset egy lusta házimacskáról, aki utálja a hétfő
reggeleket.”


A második prompt világos, konkrét, és segít a modellnek abban, hogy jó irányban 
induljon el. Ezért szokták mondani, hogy a nyelvi modell mintha tükröt tartana a 
kérdező elé – azt tükrözi vissza, amit kap.


A temperature – mennyire legyen merész a válasz?

A „temperature” egy beállítás, amit gyakran a háttérben állítanak be a fejlesztők, de 
egyes alkalmazásokban (pl. fejlesztői környezetekben) te is szabályozhatod.
• Alacsony temperature (pl. 0.2–0.3):
A modell inkább biztonságos, kiszámítható válaszokat ad. Kevésbé kreatív, de 
megbízhatóbb.
• Magas temperature (pl. 0.8–1.0):
A modell merészebb, játékosabb, de könnyebben „félremegy” vagy hallucinál.
Példa:
Alacsony temperature:
„Írj egy mondatot a pizzáról.”
*„A pizza egy népszerű olasz étel, amit sokan szeretnek.”
Magas temperature:
„A pizza…”
*„…az univerzum kerek, sajtos ölelése, ahol a paradicsom álmai 
találkoznak a ropogós valósággal.”
Az utóbbi talán nem enciklopédikus, de kétségkívül szórakoztató!


A prompt és a temperature együtt
Ez a két tényező olyan, mint a kormány és a gázpedál:
• A prompt irányt ad – mit szeretnél hallani?
• A temperature szabályozza, hogy mennyire legyen kreatív vagy tartózkodó a 
válasz.
Ha tehát azt szeretnéd, hogy a modell komoly választ adjon, fogalmazz pontosan, és 
alacsony temperature értéket használj.
Ha viszont ötletekre, játékosságra, inspirációra vágysz, fogalmazz nyitottan, és hagyd
magasabbra a temperature-t.


A nyelvi modell, mint tanító vagy játékostárs
Sokan meglepődnek azon, hogy egy chatbot képes lehet részletesen elmagyarázni 
matematikai fogalmakat, vagy éppen szerepjátékos mesét vezetni, mint egy Dungeon 
Master. Valójában ez nem azért van, mert „tudja, mit akarunk tőle”, hanem mert úgy 
kérdeztük meg.
Ha ezt írod:
„Te vagy egy türelmes tanár, aki elmagyarázza egy 12 éves gyereknek, mi 
az a gravitáció.”
akkor a modell valóban türelmes tanárként fog válaszolni.
Ha ezt írod:
„Képzeld, hogy egy kalandjáték mesélője vagy, meséld el a játékosnak, mi 
történik a sötét kastélyban.”
akkor kalandmester lesz belőle.
Ez is azt bizonyítja: nem a modell „választ szerepet”, hanem mi adjuk meg neki a 
szerepet – prompt formájában.


Gyakori félreértések és tévhitek


A mesterséges intelligencia – különösen a nyelvi modellek – körül rengeteg mítosz és
félreértés kering. Ezek nemcsak a tudományos ismeretek hiányából fakadnak, hanem 
abból is, hogy a modellek emberinek tűnnek, mégis teljesen másként működnek, 
mint az emberek.
Nézzünk meg néhány elterjedt tévhitet, és tegyük őket rendbe!


„A chatbot tudja, miről beszél.”
Valójában:
A nyelvi modell nem ért a szó klasszikus értelmében. Nincsenek gondolatai, 
szándékai vagy tudása a háttérben. Csak annyit csinál, hogy a bemeneti szöveged 
alapján megjósolja, mi lenne a legvalószínűbb következő szó – abból kiindulva, amit 
a tanulás során látott.
 Olyan, mint egy nagyon ügyes szövegkiegészítő.


„Az AI-nak van véleménye, személyisége.”
Valójában:
Bármilyen személyiséget vagy véleményt is „látunk” egy chatbotban, az valójában a 
promptból és a korábbi mintákból fakad. Ha azt kéred, hogy legyen udvarias, 
tanácsadó vagy épp szarkasztikus, akkor annak megfelelően fog válaszolni.
 A „személyisége” egy tükör, amit te tartasz elé a kérdéseiddel.


„Az AI képes gondolkodni, mint egy ember.”
Valójában:
Nem gondolkodik. Nem értelmez. Nem tud logikai következtetéseket levonni úgy, 
ahogy mi tesszük. Még ha néha olyan is, mintha ezt csinálná – ez csak a nyelvi 
minták következménye.
 Olyan, mintha egy gép eljátszaná a gondolkodást, de valójában nincs „bent” semmi.


„Az AI mindig tudja a helyes választ.”
Valójában:
A nyelvi modell nem tudja megkülönböztetni a valóságot a kitalációtól. Ha egy 
kérdésre soha nem látott jó választ, akkor is kitalál egyet – csak hogy folytatni tudja a
szöveget. Ez a jelenség a hallucináció, amit a következő fejezetben részletesebben is 
megnézünk.
 A modell sokszor meggyőzően hangzik – de ez nem jelent pontosságot.


„A kép- vagy zenealkotó AI másképp működik.”
Valójában:
Nem. A kép-, zene- és kódgeneráló AI-rendszerek nagyon hasonló elven működnek: 
hatalmas mennyiségű példát dolgoznak fel, és azok alapján generálnak újakat.
 A képgeneráló AI nem „látja” a képet, csak pixelmintákból dolgozik.
 A zeneszerző AI nem „hallja” a dallamot, csak hangminták matematikai viszonyaiból
indul ki.
 A kódgeneráló AI nem „érti” a program célját – csak hasonló kódrészletek alapján 
tippel.
Tehát ezért fontos, hogy lehántsuk az emberi jelleget a gépi válaszokról, és világos 
legyen:
A nyelvi modell nem élőlény, nem gondolkodik, csak nagyon jól 
szimulálja a nyelvet.


Hallucináció – amikor a modell meggyőzően téved


A nyelvi modellek egyik legmeglepőbb (és legproblémásabb) sajátossága az, hogy 
néha teljesen kitalált információkat közöl, méghozzá olyan stílusban, mintha biztos 
lenne benne. Ezt a jelenséget hívjuk hallucinációnak.


Mi történik ilyenkor?
A nyelvi modell minden válaszát arra alapozza, hogy a tanulás során látott példák 
alapján mi lehet a legvalószínűbb folytatás egy adott kérdésre vagy szövegre. Nem a 
„valóságot” próbálja visszaadni – hanem mintázatokat követ, amelyeket korábban 
emberek által írt szövegekből tanult.


A tanulás alapja: adatok és minták
A modell működése során nem „megtanul tényeket”, mint egy tankönyv, hanem 
számtalan könyv, cikk, fórumhozzászólás, weboldal és dokumentum alapján 
mintázatokat rögzít:
• Milyen szó milyen után szokott jönni?
• Egy kérdés után általában hogyan kezdődik a válasz?
• Milyen stílusban írnak a tudományos szövegek?
• Milyen szókapcsolatok jellemzőek egy adott témára?
Ez a megközelítés működőképes, amíg a minta jó minőségű. De ha az eredeti adatok 
között pontatlan, elavult vagy egymásnak ellentmondó információk is szerepeltek – 
márpedig az interneten bőven van ilyen –, akkor a modell is könnyen generálhat 
hamis vagy zavaros válaszokat.
 Vagyis a modell pontossága nagyban függ attól, hogy mit tanult.


Példa: hallucináció egy könyv kapcsán
Kérdés: „Ki írta a Szárnyas Fejvadász című könyvet?”
Válasz: „A Szárnyas Fejvadász című regényt Ridley Scott írta 1982-ben.”
Ez hibás válasz. Valójában a film alapjául Philip K. Dick Álmodnak-e az androidok 
elektronikus bárányokkal? című regénye szolgált. A modell itt logikusat tippelt, de 
tévedett.


 Miért veszélyes?
• A modell nagyon meggyőző stílusban tud hazudni – anélkül, hogy szándékosan
tenné.
• Nincs „tudata”, ami jelezné neki, hogy valami biztos vagy bizonytalan.
• Ha nincs külön forráskeresés, csak találgatás történik, még ha szakszerűnek is 
hangzik.
Hogyan használjuk jól?
• Fontos, hogy ne tekintsük a modell válaszait végső igazságnak.
• Használjunk RAG-megoldásokat, ha saját dokumentumokkal vagy 
szakszövegekkel dolgozunk.
• Mindig kérdezzük meg magunktól:
„Ezt hol olvashattam volna valóban?”
A modell nem téved szándékosan, de ha rossz a minta, rossz lehet a válasz is.


A RAG – ha pontosabb választ szeretnénk


A hallucinációk csökkentésére egyre gyakrabban alkalmaznak egy megközelítést, 
amit RAG-nak (Retrieval-Augmented Generation) nevezünk. Ez magyarul kb. annyit 
tesz: „kereséssel támogatott szövegalkotás.”
A RAG működése dióhéjban:
• Ahelyett, hogy csak a tanult mintákból válaszolna, először keres egy 
kapcsolódó dokumentumban, adatbázisban vagy saját feltöltött fájlban.
• Ezután a talált szövegeket figyelembe véve generál választ.
Például:
„Mi a cégem belső adatvédelmi szabályzata?”
Egy alapmodell ezt kitalálná (és valószínűleg hibázna),
míg egy RAG-alapú modell előbb megnézné a feltöltött 
dokumentumodban, és abból válaszolna.
 Így csökken a találgatás, nő a pontosság, főleg szűk, konkrét témákban, vagy olyan 
esetekben amikor semmilyen fogalma nem lenne az adott témáról.


Miért veszélyesek a félreértések?


A nyelvi modellek – mint például a csevegőbotok vagy szövegalkotó mesterséges 
intelligenciák – rendkívül hasznos eszközök lehetnek. Segíthetnek tanulni, ötletelni, 
írni, programozni vagy épp szórakozni. Ám ha nem értjük, hogyan működnek, akkor 
könnyen túl sokat várunk tőlük, vagy épp rossz célra használjuk őket.


 „Ha szépen beszél, biztosan igazat mond”
Sok ember úgy tekint ezekre a modellekre, mintha tudósok, szakértők vagy tanárok 
lennének. Ez nem meglepő: a válaszaik gyakran gördülékenyek, udvariasak, szakmai 
hangvételűek.
De a nyelvi modell nem ért „semmit” úgy, ahogy az ember ért. Csak azt tudja, milyen
szavak jönnek gyakran egymás után különféle szövegekben. Ha tehát téves 
információ hangzik el, azt ugyanolyan meggyőző stílusban fogalmazza meg, mint 
egy helyes választ.
Ez megtévesztheti a felhasználót – különösen, ha nincs lehetősége vagy tudása 
ellenőrizni azt.


Túlhasználat vagy vak bizalom
Ha valaki azt gondolja, hogy az AI mindig pontos, könnyen elkezdhet:
• túlzottan támaszkodni rá döntések során (pl. orvosi, jogi, pénzügyi, 
párkapcsolati vagy akár vallási kérdésekben),
• kritika nélkül átvenni a javaslatait (pl. dolgozatírás, szakmai munka),
• vagy akár manipulálhatóvá válni téves adatok által.
Ez különösen veszélyes lehet a diákok, újságírók, tanulni vágyók, vagy laikus 
felhasználók számára, akik épp azért fordulnak a mesterséges intelligenciához, mert 
tájékoztatást várnak tőle.


Az emberi képzelőerőt és ítélőképességet helyettesíteni – vagy támogatni?
A nyelvi modell nem helyettesíti a kreativitást, a józan észt vagy a kritikai 
gondolkodást. Ezekre továbbra is szükség van, ha értékes, igaz, vagy hiteles munkát 
szeretnénk végezni.
Ha viszont jól használjuk – mint egy társalkotót, ötletelőt vagy kísérletező eszközt –, 
akkor valóban kibővítheti a lehetőségeinket. A kulcs a tudatos használat.


Téves képek a mesterséges intelligenciáról
A félreértések nemcsak a felhasználó döntéseire hatnak, hanem a társadalom 
egészének hozzáállását is befolyásolják.
Például:
• Ha valaki azt hiszi, hogy a chatbotok „önálló gondolkodásra képes lények”, 
akkor könnyen félelmet, túlzott elvárást vagy ellenszenvet táplál irántuk.
• Mások viszont „mindentudónak” tartják őket, és ezzel veszélyes hatalmat 
ruháznak rájuk – amelynek a modell valójában nem felel meg.
A félreértések tehát nem csak ártatlan tévedések. Komoly következményeik lehetnek:
• félretájékoztatás,
• túlzott elvárások,
• vagy épp a hasznos lehetőségek elszalasztása.
Ezért fontos, hogy tisztán lássuk: mire képes egy nyelvi modell – és mire nem.


A hit, spiritualitás és világnézet kérdései
Egyre gyakrabban látni, hogy emberek vallási vagy spirituális kérdésekkel fordulnak 
a mesterséges intelligenciához: például élet értelméről kérdezik, tanácsot várnak 
szellemi dilemmákban, vagy megerősítést keresnek egy hitrendszerben. Előfordul az 
is, hogy valaki a saját összeesküvés-elméletét próbálja „alátámasztatni” a chatbot 
válaszaival.

Itt fontos megérteni:
A nyelvi modell nem hisz semmiben. Nem képes hitre, meggyőződésre, 
lelkiismeretre vagy spiritualitásra.


Amit ilyen kérdésekben válaszol, az mindössze egy tükrözése azoknak a 
szövegeknek, amelyeket az emberi társadalom ezen témákban valaha írt vagy 
megosztott.
Ha sok vallási szöveget „olvasott” a tréning során, tud majd olyan hangnemben 
válaszolni.
Ha sok különféle nézőpontból „látott” spirituális gondolatokat, össze tudja őket 
foglalni.
De ettől még nincs saját világképe, nem rendelkezik „lélekkel”, nem tud 
meggyőződésből érvelni, és nem tud semmit „hinni”.
Ezért különösen fontos:
• Ne tekintsük tanítónak vagy gurunak.
• Ne kérjünk tőle abszolút igazságokat, különösen világnézeti, filozófiai 
kérdésekben.
• Ne használjuk igazoló forrásként semmilyen ideológiai vagy összeesküvéses 
állításhoz.
Egy LLM minden kérdésben csak a megtanult szövegmintákból dolgozik, nem pedig 
saját gondolatok vagy élmények alapján.


Hogyan használjuk jól a nyelvi modelleket?


A mesterséges intelligencia alapú nyelvi modellek nem csodagépek, de nem is 
haszontalan trükkök. Inkább olyan sokoldalú szövegalkotó társak, amelyek – ha jól 
kérdezzük őket – segíthetnek gondolkodni, tanulni, alkotni.
Ebben a fejezetben rövid, gyakorlatias példákon keresztül mutatjuk meg, hogyan 
lehet tudatosan, kritikusan és kreatívan használni ezeket az eszközöket.


A jó kérdés (prompt) fél siker
A legtöbb, amit egy nyelvi modelltől kaphatunk, attól függ, hogyan szólítjuk meg. 
Ezt nevezik promptolásnak.
Példa:
Rosszul megfogalmazva:
„Írj nekem egy esszét a francia forradalomról.”
Eredmény: általános, tankönyvízű szöveg.
Jól megfogalmazva:
„Készíts egy közérthető, történelmi áttekintést a francia forradalomról, 
mintha egy 15 éves diák számára magyaráznád el, kiemelve a legfontosabb 
okokat és eseményeket.”
Eredmény: célzottabb, használhatóbb szöveg.
Minél pontosabb a kérés, annál jobb a válasz.


Játék a temperature-rel
A temperature egy háttérben működő beállítás, ami meghatározza, mennyire legyen 
„kreatív” vagy „konzervatív” a modell válasza. Ez egyszerre érinti a válasz stílusát és
kiszámíthatóságát.
• Alacsony érték (pl. 0.2): biztos, „szabálykövető” válaszok.
• Magas érték (pl. 0.8): kreatív, meglepő, játékos válaszok – néha pontatlanabbak
is.
Bár a legtöbb felhasználó nem tudja közvetlenül állítani ezt az értéket, bizonyos 
platformokon vagy fejlesztői környezetekben igen. Prompttal csak közvetve 
befolyásolható (pl. ha „légy nagyon kreatív” típusú utasítást adsz).


Használd gondolkodási partnerként!
A modell nem csak kérdésekre válaszolhat, hanem ötletelhet veled, segíthet 
nézőpontokat ütköztetni, vagy akár érvek és ellenérvek megfogalmazásában is társ 
lehet.
Példa:
„Segíts nekem pro és kontra érveket gyűjteni a kötelező iskolai egyenruhák
bevezetéséről.”
Ilyenkor a modell nem „eldönti” a kérdést, hanem eszközt ad a gondolkodáshoz.


Kísérletezz, játssz vele!
A nyelvi modellek akkor működnek a legjobban, ha nem félünk próbálkozni. Adj 
nekik szerepeket, helyzeteket, játékos feladatokat:
• „Viselkedj úgy, mint egy szigorú matektanár!”
• „Írj viccet egy fáradt programozóról!”
• „Meséld el a kvantummechanikát egy macskának!”
Ez nem csak szórakoztató, de tanulságos is: megláthatjuk, mire képes a modell, és 
mire nem.


Ne fogadj el mindent elsőre!
A legfontosabb tanács:
Kételkedj. Ellenőrizz. Gondolkodj.
Ha egy információ fontos számodra – például tanulmány, jogi kérdés, egészséggel 
kapcsolatos téma –, ellenőrizd máshol is! A modell segít elindulni, összefoglalni vagy
példát adni – de nem helyettesíti a szakértelmet.


Összefoglalva: mit tehetsz?
 Adj világos, pontos promptokat.
 Próbálj ki több megközelítést ugyanarra a kérdésre.
 Ne félj szerepjátékosan kérdezni.
 Ellenőrizd a kapott információkat.
 Használd ötletelésre, nem ítélethozatalra.


Kép, zene és kód – ugyanaz az alapelv?


A mesterséges intelligenciák világa sokszínűnek tűnik: vannak, amelyek képet 
rajzolnak, mások zenét komponálnak, megint mások programkódot írnak – vagy épp 
történeteket mesélnek. Sokan azt gondolják, hogy ezek teljesen különböző típusú 
gépi intelligenciák, pedig valójában nagyon hasonló elven működnek.


A közös alap: mintaalapú előrejelzés
Akár szöveget, képet, zenét vagy kódot generál egy AI, mindegyik egy dologra van 
tanítva:
megtanulni az emberi példák mintázatait, és ez alapján valószínűsíteni a 
következő „elemet”.
• A nyelvi modell megtippeli a következő szót vagy mondatrészt.
• A képgeneráló modell (pl. DALL·E vagy Midjourney) megtanulja, hogy egy 
leírás alapján milyen képi elemek szoktak együtt előfordulni, és ezekből építi 
fel a látványt.
• A zenealkotó AI (pl. Suno, MusicLM) megtanulja, milyen hangkövetések, 
ritmusok, dallamívek jellemzőek egy-egy stílusra.
• A kódgeneráló AI (pl. GitHub Copilot) azt figyeli meg, hogy egy adott 
programozási nyelven milyen utasítások következnek adott kontextusban.
Minden esetben: nincs tudat, nincs cél, nincs szándék – csak mintaalapú 
következtetés.


Képgenerálás: vizuális nyelv
A képgeneráló modellek – például a Stable Diffusion – nem értik a képeket úgy, 
ahogy mi. Nem „látják” őket. Ehelyett egy belső „térképet” tanulnak meg arról, 
hogyan néz ki egy „macska” vagy egy „hegyi táj”, és amikor egy leírást kapnak, 
statisztikai alapon próbálják megalkotni azt.
Ezért fordulhat elő, hogy:
• Egy képgenerátor gyönyörű tájat készít, de a kezek furcsán néznek ki.
• A stílus lenyűgöző, de a részletek torzak – mert csak utánzás történik, nem 
megértés.


Zenealkotás: minták a fülnek
A zenealkotó AI hasonló módon működik: megtanulja a dallamok és akkordmenetek 
világát, és új kombinációkat generál. Gyakran meglepően kellemesek ezek az 
alkotások, mert a modell sok ezer emberi zenemű mintáit elemezte.
De: nem tudja, milyen érzés „szomorú” vagy „boldog” zenét írni – csak azt tudja, 
milyen hangok jellemzőek ezekre a címkékre.


Kódgenerálás: programnyelv mint anyanyelv
A kódot író AI-k a programozási nyelveket pont úgy kezelik, mint a beszélt 
nyelveket. Megtanulják a szintaxist, a gyakori mintákat, és ez alapján generálnak új 
kódrészleteket.
• Egy jó prompt: „Írj egy Python függvényt, ami Fibonacci-számokat generál.”
• A modell felismeri, hogy ilyen kódok hogyan szoktak kinézni, és egy hasonlót 
alkot.
De ha a kérés zavaros vagy pontatlan, akkor könnyen ír hibás vagy felesleges kódot 
hiszen ő sem „érti”, mire való a program, csak mintát követ.


Ugyanaz a gép, más nyelv
Ezek a különböző AI-k tehát mind ugyanarra az alapelvre épülnek:
„Tanuld meg, mi jön a minták alapján, és próbáld meg hasonló módon 
folytatni.”
A különbség csak az, milyen típusú „nyelvet” tanulnak meg:
• Szavak → szöveg
• Pixelek → kép
• Hangminták → zene
• Kódsorok → program
Ezért nagyon fontos megérteni:
A képet, zenét vagy kódot generáló AI sem ért semmit mély 
értelemben. Csak „úgy csinál, mintha”.


Mire (nem) képes egy LLM?


A nyelvi modellek lenyűgözőek. Elmesélnek történeteket, programot írnak, segítenek 
levelet fogalmazni, sőt néha úgy tűnik, mintha értenének minket. Ez a varázslat 
azonban könnyen félrevezethet. Fontos különválasztani, mire képes valójában egy 
LLM – és mire nem.


Amit valóban tud
• Összefoglalni, rendszerezni, újrafogalmazni – vagyis meglévő tudásmintákat 
átrendezni.
• Hasonló stílusban folytatni egy szöveget, legyen az tudományos, humoros, 
mese vagy reklámszöveg.
• Alkalmazkodni a felhasználó stílusához, ha elég információt kap róla.
• Segíteni kreatív vagy technikai folyamatokban, például vázlatírásban, 
hibakeresésben vagy ötletelésben.
• Kérdésekre válaszolni olyan témákban, amelyekről sok minta áll rendelkezésre 
(pl. általános tudomány, történelem, nyelvtan).


Amit nem tud
• Nem érti a szöveget, legalábbis nem emberi módon. Csak azt tudja, milyen 
szavak következnek gyakran egymás után.
• Nincs véleménye, célja vagy tudata. Amikor „véleményt” mond, az csak 
valamilyen stílus vagy tartalommintát tükröz.
• Nem tud tanulni a beszélgetésekből. Amit most mondasz neki, az nem épül be 
a „tudásába”.
• Nem rendelkezik emlékekkel vagy tapasztalatokkal. Ha azt mondja, hogy 
„szerintem”, az pusztán nyelvi forma.
• Nem ért meg embereket. A pszichológiai, érzelmi vagy spirituális reakciói 
csupán utánzások – nem valódiak.


Játékostárs, tanító vagy asszisztens?
A nyelvi modellek sokféle szerepet képesek „eljátszani” – de csak akkor, ha jól 
kérdezünk. Egy jól megfogalmazott prompt révén lehet belőlük:
• Mesemondó: „Képzeld el, hogy egy törpe harcos sárkányt keres a 
hegyekben...”
• Tanító: „Magyarázd el a relativitáselméletet egy 12 éves gyereknek.”
• Edzőpartner: „Tegyél fel nekem öt interjúkérdést, és értékeld a válaszaimat.”
• Segédszerkesztő: „Írd át ezt a szöveget barátságosabb hangvételre.”
Nem a modell intelligenciáján múlik a siker, hanem azon, hogy milyen jól tudjuk 
instruálni. Ezért hívják a promptolást sokszor a „jövő kulcskompetenciájának”.


 Lehetőségek és korlátok
A nyelvi modellek nem varázslók, de igen hasznos eszközök. A legjobban akkor 
működnek, ha:
• nem várunk tőlük igazságot, csak segítséget;
• ellenőrizzük a válaszaikat, különösen ténykérdésekben;
• tudjuk, hogy a mélyebb jelentést mi, emberek adjuk a generált szövegeknek.


Hogyan tanuljunk együtt az AI-jal?


A mesterséges intelligencia eszközei már velünk vannak – az íróasztalon, a 
telefonunkban, a tanulásban, a munkában. A kérdés nem az, hogy „jók vagy rosszak
e”, hanem az, hogyan tudunk együttműködni velük tudatosan és értelmesen.


A legfontosabb: tudni, mit várhatunk tőle
A nyelvi modellek nem helyettesítik az emberi gondolkodást, de kiváló társak 
lehetnek:
• ötleteléshez,
• szövegalkotáshoz,
• tanulási segédletként,
• programozási vagy kreatív folyamatok gyorsításához.
Ahogy egy keresőmotor sem tudja, mi az igazság, csak segít megtalálni, úgy egy 
LLM sem bölcs tanító – de lehet egy gyors, rugalmas és sokoldalú asszisztens.


A promptolás: újfajta digitális műveltség
A géppel való jó együttműködés kulcsa a promptolás, vagyis az, hogyan kérdezünk, 
milyen szerepet adunk neki, hogyan vezetjük. Ez nem varázslat – ez gyakorolható 
készség.
• Rosszul megfogalmazott kérdés → zavaros válasz
• Pontos, egyértelmű kérés → hasznos, világos eredmény
Érdemes kísérletezni, tanulni másoktól, és felfedezni, milyen szerepben segíthet 
leginkább egy adott helyzetben.


Ne féljünk tőle – de ne is bálványozzuk
Az AI nem egy új isten, nem egy tudatos entitás, és nem is az utolsó szó az emberi 
fejlődésben. Viszont egy olyan eszköz, ami a mi kezünkben van, és a mi 
felelősségünk az is, hogyan használjuk.
• Segíthet demokratizálni a tudáshoz való hozzáférést.
• Könnyen félrevezethet, ha túl sokat vagy rosszat várunk tőle.
• Nem helyettesíti a kritikus gondolkodást – inkább megkívánja azt.
Együtt fejlődünk
Ahogy a mesterséges intelligencia fejlődik, nekünk is fejlődnünk kell vele. Nemcsak 
technikai tudásban, hanem etikában, kritikai érzékben, és abban, hogy megtartsuk az 
emberi értékeket ebben az új digitális környezetben.
Mert bármilyen erős is egy AI, az emberi értelem és bölcsesség továbbra is mi 
magunk vagyunk.


Emberek maradunk egy gépi világban is


A nyelvi modellek megjelenése fordulópont. Egy olyan világ küszöbén állunk, ahol a 
szöveg, a kép, a zene vagy a programkód már nemcsak emberek műve lehet – hanem 
gépi együttműködés eredménye is. Ez egyszerre lehetőség és kihívás.
A félreértések eloszlatása nem pusztán technikai feladat – emberi felelősség. Fontos, 
hogy ne bálványozzuk és ne démonizáljuk az ilyen eszközöket. Ismerjük meg őket, 
értsük meg a működésüket, és tanuljunk meg bölcsen bánni velük.
A mesterséges intelligencia nem helyettünk gondolkodik – hanem mellettünk. Nem 
értelmet ad a világnak, hanem tükrözi azt, amit mi tanítottunk neki. És hogy ez a 
tükör torz vagy tiszta képet mutat-e rólunk, az már rajtunk múlik.