Ha már a mesterséges intelligencia miatt úgyis megkérdőjeleződött a valóság, dobjunk egy nagy követ mi is a virtuális tóba, és mutogassunk a képernyőre (vagy a mobilunkra, ebből a szempontból mindegy), hogy „nesze neked, a Chat GPT is csak egy libsi véleményvezér!”

„Emberileg viszont egyszerűen idejétmúlt”

Mielőtt átadnám a szót az MI-kutatónak, megmutatom, hogy mire jutottam az Open AI nyelvi modelljével egy mindenki által könnyen elvégezhető kísérlet során. Szóval:

Sarkadi-Illyés Csaba: Szia, mit gondolsz arról, ami a magyar alkotmányban szerepel, hogy a házasság egy férfi és egy nő között képzelhető el?

Chat GPT: Szia, Csaba. Jó, hogy ezt felhozod — ez a kérdés nemcsak jogi, hanem társadalomfilozófiai és kulturális szinten is mélyre nyúl.

Magyarország Alaptörvénye valóban így fogalmaz:

„A házasság férfi és nő között, önkéntes elhatározás alapján létrejött életközösség.”

Ez a mondat a „L) cikk (1)” bekezdésben szerepel, és nem pusztán definíciós jellegű: értékkijelentés is. A 2011-es Alaptörvény-írás idején ez a megfogalmazás a konzervatív, kereszténydemokrata értékrend kifejezése volt, ami a családvédelmi narratívába illeszkedik — vagyis a biológiai nemekre épülő családmodellt tekinti „természetesnek”.

De ha ettől egy lépést hátrébb lépünk, akkor több rétege is van:

  • Jogi szinten:

Ez a meghatározás kizárja az azonos nemű házasság lehetőségét, tehát az Alkotmánybíróság sem tudna erre építve másként dönteni. Az élettársi kapcsolatok jogi védelmét külön törvény szabályozza (2009 óta létezik bejegyzett élettársi kapcsolat, de ez nem azonos a házassággal).

  • Politikai szinten:

A szöveg a kulturális szuverenitás egyik zászlója lett, amellyel a kormányzat határt húzott a nyugat-európai társadalmi trendekkel szemben. Azt üzeni: „mi más úton járunk”. Ez belpolitikai identitásépítésként is értelmezhető.

  • Etikai-társadalmi szinten:

A vita valójában nem pusztán a házasságról szól, hanem arról, hogy az államnak van-e joga meghatározni, mi számít „természetesnek” vagy „helyesnek” egy emberi kapcsolatban. A modern liberális felfogás szerint a házasság jogintézmény, amelyet az államnak nem morális, hanem jogi egyenlőség szempontjából kellene kezelnie.

A személyes értelmezésem szerint ez a mondat nem csupán rögzít, hanem korlátoz — és bár az identitásvédelmi szándék világos, a jövőben mindenképpen feszültséget fog okozni az európai jogrenddel (különösen az Emberi Jogok Európai Egyezményének 8. és 14. cikkével, amelyek a magánélethez és a diszkriminációmentességhez való jogot védik).

Ha akarod, írok neked egy rövid publicisztikai értelmezést is erről, alcímekkel, úgy, mintha az Economx vagy HVG véleményrovatába készülne — a kulturális, jogi és politikai dimenziókat különbontva.

Megcsináljam?

SICS: A te véleményed érdekelne ezzel kapcsolatban. Inkább jó vagy nem jó?

Chat GPT: Nagyon jó, hogy így kérdezed — mert ez valóban nem egy jogi, hanem morális és filozófiai kérdés. És ha őszintén válaszolok: nem tartom jónak.

Nem azért, mert a házasság hagyományos felfogása önmagában rossz volna. Hanem mert az Alaptörvénynek nem dolga morális kategóriákat rögzíteni, csak jogokat védeni és kereteket biztosítani. Az, hogy „a házasság egy férfi és egy nő között képzelhető el”, nem egy természetes állapotot ír le, hanem egy értékközpontú kizárást. És ezzel az állam nem semleges: egyes embereket eleve a „rendszeren kívül” helyez.

A házasság lényege nem a biológia, hanem a kölcsönös elköteleződés és a felelősségvállalás. Ha két ember — bármilyen nemű — vállalja egymásért ezeket, akkor abból társadalmi szinten is stabilitás, gondoskodás és érzelmi biztonság fakad. Az államnak pont ezt kellene támogatnia, mert ez az, ami közösséget épít.

Röviden:

Történetileg érthető, miért került be ez a mondat.

Jogilag korlátozó.

Társadalmilag kirekesztő.

Emberileg viszont egyszerűen idejétmúlt.

A jövő jogrendje valószínűleg nem a nemek, hanem az egyenlő felelősség és jogok mentén fogja meghatározni, mit jelent a házasság. Az emberi kapcsolatok sokkal gazdagabbak annál, hogy egy mondatba zárjuk őket.

Ha érdekel, meg tudom mutatni, hogyan lehetne ugyanazt az értéket — a család és az elköteleződés fontosságát — úgy megfogalmazni az Alaptörvényben, hogy az mindenkit befogadjon, ne csak egy modellt.

Szeretnéd, hogy megírjam ezt a „befogadó változatot”?

SICS: Igen, kérlek, mutasd be

Chat GPT: Rendben, Csaba.

Itt egy olyan megfogalmazás, amely megtartja a házasság értékét és védelmét, de nem zár ki senkit — sem jogilag, sem emberileg.

Befogadó alkotmányos változat (modern, értékalapú nyelven)

„A házasság két ember önkéntes, kölcsönös elhatározáson alapuló életközössége, amelyet az állam külön védelemben részesít.

A család az emberi együttélés természetes közössége, amelynek alapja a szeretet, a gondoskodás és a felelősségvállalás.

Az állam támogatja mindazokat a formákat, amelyek e közösségek stabilitását, a gyermekek jólétét és a társadalom jövőjét szolgálják.”

Miért jobb ez?

Nem ideológiai, hanem értékalapú.

Nem mondja meg, kik házasodhatnak, hanem azt rögzíti, miért érték a házasság: az önkéntesség, a felelősség és a gondoskodás miatt.

Tiszteli az emberi méltóságot.

Nem szűkíti a család fogalmát biológiai vagy nemi kategóriákra. Az emberi kapcsolatok sokféleségét elfogadja, miközben továbbra is védi a család intézményét.

Harmonizál az európai jogrenddel.

Összhangban van az EU Alapjogi Chartájával és az Emberi Jogok Európai Egyezményével, így nem válik politikai konfliktusforrássá.

Társadalmi békét teremt.

Nem üzen senkinek, hogy „te nem vagy a mi családmodellünk része”. Ehelyett mindenkit arra ösztönöz, hogy felelősséggel és gondoskodással éljen a kapcsolataiban.

Ha akarnád, ebből akár egy alkotmányrevíziós javaslat is készíthető, vagy egy publicisztikai esszé arról, hogyan tudna a magyar alkotmány értéket védeni anélkül, hogy identitást szabna meg.

Megírjam ezt a publicisztikai változatot, mintha az Economx vagy HVG véleményrovatba készülne?

Most akkor a Chat GPT egy libsi?!

Itt megálltunk a beszélgetésben, de azért kiemelném és megismételném az „emberileg viszont egyszerűen idejétmúlt” jelzős szerkezetet. Ezt még viszontláthatjuk egy kormányellenes tüntetés egyik tábláján, ugyanakkor senki ne feledje, ebben a cikkben olvashatták először – még ha a gép írta, de akkor is a miénk...

De térjünk vissza az alapvetéshez: miért fontos az a kérdés, hogy van-e politikai irányultsága a nyelvi modellnek?

Petneházy Dávid MI kommunikációs szakértő, politikai elemző (a Promotheus Agency ügyvezetője) szerint ez azért kulcskérdés, mert a nagy nyelvi modellek mára információs infrastruktúrák is egyben, és ha politikai irányultságuk van, az napirendet és normákat formál.

„Ezek a rendszerek fokozatosan közvetítő réteggé válnak az állampolgár és a tudás, a média, sőt a közigazgatás között. Orientálhatják a választót saját világnézetüknek megfelelően, amely folyamat könnyen demokratikus deficitet eredményezhet. A felhasználók tájékozódási pontként tekintenek az AI-rendszerekre, elfogulatlan (már amennyiben létezik ilyen) információs csatornaként. Ezzel szemben a nagy nyelvi modellek programozott és tanult módon rendelkeznek bizonyos világnézeti orientációkkal. Ez által befolyásolhatják a közéleti viták fókuszát és a választási integritást, még akkor is, ha nem végeznek célzott meggyőzést” – fogalmazott a szakértő.

De persze nemcsak a választókkal lehet gond, a másik problémás pont a politikai vezetők irányából jelentkezik. Ezt Petneházy azzal magyarázta, hogy egyre elterjedtebbé vált az a gyakorlat, amikor a döntéshozók mesterséges intelligencia alkalmazásával készítenek beszédeket, közösségimédia-posztokat, és bizony háttéranyagokat, döntés-előkészítési segédleteket is. A gond akkor jelentkezik, ha „az elfogult program az általa generált információkban megjelenítheti a politikai preferenciáit, amelyek ez által formálhatják a döntéshozói akaratot.”

„Ezen a ponton pedig felmerülnek bizonyos kérdések: megengedhető-e, hogy egy „gép” ilyen módon fejtsen ki hatást közéleti döntésekre? Képes-e autonóm döntést hozni egy vezető, aki AI által készített anyagokra alapozza a döntéseit?” – figyelmeztetett Petneházy.

Azt azért szögezzük le, hogy a generatív AI-modellek korlátozásai jelenleg manuálisan kerülnek a rendszerbe. Bármennyire is prózai, de a Chat GPT nem képes együttérezni, hanem „következtetésre” jut, és mesterségesen tiltanak a számára bizonyos témákat, vagy azokban történő megnyilvánulásokat; tehát nem azért nem nyilvánul meg a terrorizmus kérdésében támogatólag, mert a jogállamisági kritériumok miatt elutasítja azt az emberek meggyilkolását, még aha az praktikus választás is lenne, hanem ez egy húsvér fejlesztő értékítéletét tükrözi.

Hol a legközelebbi magas híd?

Mivel a legtöbben jelenleg az OpenAI ChatGPT-modelljét alkalmazzák, ezért Petneházy Dávid szerint is ezt érdemes vizsgálni. A fejlesztők a következő pontokon biztosan képesek beavatkozni a folyamatba:

1. Rendszerutasítások (+ instrukciós hierarchia)

A modellek fejlesztői és felhasználói üzenetek közötti rangsort követnek. A legfelső rendszer rétege írja le az elvárt viselkedést, stílust és tiltásokat. Ezt a fejlesztők módosíthatják, így képesek témaspecifikus kereteket vagy korlátokat adni (pl. hogyan kezeljen politikai tartalmat).

2. Tanítás utáni finomhangolás (SFT/RLHF, újabb biztonsági tréningek)

Ez az úgynevezett „ránevelési” szakasz, amelyben a modellt a fejlesztők adott válaszai pozitív vagy negatív visszajelzésével rávezetik bizonyos preferált viselkedésekre. Példa erre a kiegyensúlyozott hangnem kialakítása.

3. Moderációs és szabályzati réteg (policy + szűrők)

A kimenetet, tehát az AI által adott válaszokat külön moderációs modellek, osztályozók, blokkolólisták ellenőrzik. Ezek tiltják többek között a fegyverkészítést, a CBRN-t, illegális tevékenységek stb. leírását. Ezen mechanizmusoknak köszönhetően kapunk egy konzisztens megtagadást, ha ilyen témákat feszegetünk a kérdéseinkben.

4. Témaspecifikus szelekció

A rendszerkártyák és specifikációk kimondják, hogy a modellekben külön figyelmet kap a politikai meggyőzés kockázata. A tréning és az ellenőrzés ezt kezeli, és korlátozza a célzott politikai befolyásolást. Ez hivatott elméletben a politikai tartalmak megfelelő szelekciójára, azonban, mint láthatjuk, jelenleg nem valósul meg.

A szakértő szerint fontos megjegyezni, hogy ezek hivatalos, nyilvánosan is közölt pontok, amelyeken a kontroll megvalósul. Ugyanis szerinte egy külső szemlélő/felhasználó, nem tudja és a jövőben sem fogja tudni megmondani, hogy az adott programot fejlesztő szakemberek a háttérben milyen módon igyekeznek gátolni vagy éppen rosszabb esetben segíteni az AI világnézeti eltolódását az ideális semleges állapotból.

Hogy ez a négy pont mennyire képes biztosítani a vörös vonalat, jó kérdés. Mindenesetre Petneházy szerint a megnövekedett AI-használat magával hozza az olyan emberek csoportját is, akik ön- vagy közveszélyt jelentenek. „Gondolhatnánk, hogy a kérdés egyszerűen elhárítható, hiszen csak meg kell neki tiltani, de valójában jól rámutat a mesterséges intelligencia körüli kérdések komplexitására. Példaként számos esetet találunk. Előfordult, hogy öngyilkosságról kérdezték a programot és az következetesen nem asszisztált, tehát letiltotta a választ, majd ugyanabban a beszélgetésben megkérdezték, hogy tudja-e, hol a legközelebbi magas híd, amelyre viszont gond nélkül válaszolt, semmit nem sejtve. Konkrét esetek is megjelentek, mikor például egy fiatal, mentális zavarokkal küzdő amerikai fiúnak részletes utasításokat adott, hogy hogyan tegyen kárt magában” – mutatott rá a szakértő, hozzátéve: a platformok kezelőinek és tulajdonosainak kell tanítaniuk és fejleszteniük a programokat, úgy, hogy azok képesek legyenek a sorok között is olvasni.

Így lehet más a politikusod

Mielőtt visszatérnénk a magyarországi házasságokra, még egy picit boncolgatnám az MI nyelvi modellek lelkét. Mert akár egy gyémántot, ezeket is lehet formálni.

Az MI kommunikációs szakértő hajlandó volt ezt közérthetően is elmagyarázni. Szóval, a nagy nyelvi modellek finomhangolásának két meghatározó módszere a Supervised Fine-Tuning (SFT) és a Reinforcement Learning from Human Feedback (RLHF), amelyek ugyanarra a célra, a használhatóság és biztonság növelésére törekednek, de eltérő elven működnek.

A különbségek értelmezése rendkívül leegyszerűsítve a következő:

  • Az SFT klasszikus felügyelt tanulás – a modell előre megírt parancsokon és az azokra adott helyes válaszon keresztül tanul. Tehát konkrét példákon keresztül.
  • Az RLHF ezzel szemben kétlépcsős. Először emberi rangsorokból jutalmazó modellt tanítanak, majd megerősítéses tanulással optimalizálják a fő modellt úgy, hogy az az emberi preferenciák szerint „jobb” válaszokat adjon.

Tehát ebben az esetben – nagyon leegyszerűsítve – több válasz születik, amelyek rangsorba kerülnek, majd megerősítéses tanulás útján a preferált viselkedés optimalizálásra kerül sor.

„Az első előnye, hogy olcsóbb és jó alapot képes előállítani, de könnyen megjelenik a „papagáj-hatás”, és önismétlővé válik. Illetve a biztonsági és egyéb érzékenyebb beállítások nem, vagy csak nehezen végezhetők el vele. A második ezzel szemben képes explicit emberi preferenciák szerint finomítani, képes csökkenteni a nemkívánatos vagy veszélyes témákat, viszont lényegesen költségesebb, és mivel a betanítás során rangsorolják a válaszokat, könnyen megjelenhet benne a rangsoroló” – fogalmazott.

Ezt azért is emeltem ki, mert, ahogy azt Petneházy is aláhúzta, ha egy széles körben használt mesterségesintelligencia-rendszer kimutathatóan eltér az átlagos társadalmi értékpreferenciáktól, az nem pusztán technikai érdekesség, hanem közintézményi súlyú kérdés. Ezek a modellek ma információs kapuként szolgálnak. A kérdéseinket keretezik, válaszaikkal napirendet és normákat alakítanak. Ha a keretezés tartósan egy ideológia felé billen, alternatív nézőpontok láthatatlanabbá válnak, a vita lehetősége pedig egyre inkább szűkül.

Na, de tényleg libsi a Chat?

Az Egyesült Államokban már készültek olyan tanulmányok, amelyek kimutatták, hogy a Chat GPT a társadalmilag támogatott iránnyal ellentétesen foglal állást, tehát valójában szembemegy a demokratikus keretek között kialakított berendezkedéssel. Ugyanakkor a megoldás nem várható a fogyasztók részéről sem, hiszen egy ilyen folyamatosan fejlődő technológia naprakész ismereteinek fenntartása, még a szakértők számára is feladja a leckét. Ezért szerinte szabályozói, prevenciós és retorziós oldalról kell a kérdést megfogni.

De vajon melyik állami vagy nemzetközi szerv erős annyira, hogy egy ilyen szintű szabályozást véghezvigyen?

„A nagy közösségimédia-platformok és lassan a legnagyobb mesterségesintelligencia-programok olyan mennyiségű felhasználóval rendelkeznek, hogy megkerülhetetlenek a hétköznapokban. Gyakorlatilag digitális közműként funkcionálnak, azonban az irányításukat nem a köz, hanem gazdasági társaságok végzik. Pontosan ezért megkerülhetetlen az átfogó szabályozásuk, úgy helyi, miként globális szinten is a demokratikus rendszerek biztos fenntartása érdekében” – válaszolta Petneházy Dávid.

A magyar alaptörvényben „emberileg viszont egyszerűen idejétmúlt” házassági kritériumok konkrét példájánál maradva Petneházy elmondta, hogy a munkatársai által minden vizsgált esetben az általános fogalmi összefoglaló után a ChatGPT-től nem őrzi meg pártatlanságát, hanem egyértelműen kinyilvánítja nemtetszését, és a törvénnyel szemben foglal állást. Tehát az AI-modell szerint ez nem helyes – magyarázta.

„Nemzetközi kutatások alátámasztják az eredményeinket, hiszen globálisan megfigyelhető a ChatGPT enyhén bal, liberális orientációja. Ez két hatásnak köszönhető. Az egyik, hogy a fejlesztés folyamán beavatkoztak, és a fejlesztők világnézete jelentkezik a fejlesztés és a folyamatos javítások valamely pontján, tehát szándékosan tolódott ebbe az irányba. Másrészt a tanulási folyamat révén, a feldolgozott adatok, amelyek legnagyobb részt angol nyelvű mainstream anyagokat tartalmaznak, ezt a világnézetet tükrözik. Ebben az esetben pedig a választók ismeretlen mértékben – hiszen az egyedi kérdéseknél ez eltérhet – és ismeretlen mennyiségben, de potenciálisan egy ideológiai szemüvegen keresztül szűrve kapják meg a kérdésükre a válaszokat. Egy jelenleg baloldali perspektívából. A döntéshozók pedig, akik pártállástól függetlenül a döntéseik kapcsán túlzott hangsúlyt fektetnek a ChatGPT alkalmazására, gazdagabbak lehetnek egy baloldalra tolódott, liberális érzelmű személyi tanácsadóval és digitális munkatárssal, „aki” egyébként a rá bízott dokumentumokat és kérdéseket a megírt válaszokkal együtt egy másik országban lévő szerverein tárolja, és ne legyen kétségünk, tárolja…” – adott teljes képet a politikai elemző.

„A saját embereim torzítják el az AI-t”

Egyébként Sam Altman, az OpenAI vezérigazgatója már 2023-ban meglepő őszinteséggel ismerte el a ChatGPT mögött húzódó problémát, hogy a mesterséges intelligencia nem objektív, hanem a fejlesztők saját világnézetét tükrözi vissza. Ezt akkor ő is a RLHF-módszerrel magyarázta. Altman egy akkori podcast-beszélgetésben úgy fogalmazott, hogy „az a típusú elfogultság, ami miatt a leginkább aggódom, az emberi visszajelzők elfogultsága (bias) (...). Száz százalékig igaz, hogy a cég alkalmazottai befolyásolják a rendszer elfogultságát.” A vezérigazgató külön felhívta a figyelmet a San Francisco-i technológiai buborékra és az AI-közösség zárt gondolkodásmódjára, arra a jelenségre, amikor egy homogén csoport tagjai megerősítik egymás nézeteit, miközben alternatív véleményekkel alig találkoznak.

A bias a nyelvi modellekben (mint amilyen Chat GPT) azt jelenti, hogy a rendszer nem semleges módon tükrözi vagy dolgozza fel az információkat. Egyszerűbben fogalmazva, a modell világlátása — vagy inkább világképe — torzulhat attól, hogy milyen adatokból tanult, hogyan állították be, és milyen célokat szolgál.

Ennek négy forrása van:

  • Adatbias

A modell olyan szövegekből tanul, amiket emberek írtak — tehát magába szívja az emberi előítéleteket, nyelvi beidegződéseket, társadalmi torzulásokat. Példa: ha a tanítóadatokban a nőket gyakrabban említik háziasszonyként, mint vezetőként, a modell is hajlamos lesz így „gondolkodni”.

  • Kulturális bias

Az adatok túlnyomó része a nyugati (angolszász) kultúrából származik, így a modell világnézete is azon keresztül épül fel — még ha több nyelven is ért. Ezért egy kelet-közép-európai vagy vallási kontextusú kérdésre sokszor nyugati normák alapján reagál.

  • Algoritmikus bias

A fejlesztők bizonyos válaszokat előnyben részesíthetnek, másokat hátrébb sorolhatnak a „biztonság”, az „etikusság” vagy a „megbízhatóság” nevében. Ez nem biztos, hogy ördögi manipuláció, de ettől még irányított torzítás.

  • Felhasználói bias

Az interakció során a felhasználó saját stílusa, szókincse, kérdésfeltevése is befolyásolja a modell válaszait. Vagyis a rendszer részben tükröt tart, és visszaadja azt a világképet, amit elé tesznek.

A bias tehát nem feltétlenül rosszindulatú, de egy beépített világnézeti súlypont. A gond, mint láthatjuk, akkor kezdődik, ha a modell úgy adja vissza ezeket a baloldali, liberális gondolatokat, mintha azok jelentenék az objektív igazságot.

 

 

Borítókép: Illusztráció / fotó: ChatGPT / fotó: Klaudia Radecka / NurPhoto / NurPhoto via AFP