A mesterséges intelligencia korlátai a jogi tanácsadásban – kockázatok és félreértések
Az elmúlt évek technológiai fejlődésének köszönhetően a mesterséges intelligencia (AI, esetleg MI), különösen a nagy nyelvi modellek – mint például a ChatGPT – egyre szélesebb körben elérhetővé váltak a laikus felhasználók számára. E rendszerek képesek összetett szövegek értelmezésére, új szövegek generálására, sőt, a felhasználók által alkalmazható jogi tanácsnak vélt válaszok megfogalmazására is. Ugyanakkor komoly veszélyforrást jelent, ha a felhasználók e válaszokat megalapozott, érvényes jogi tanácsként kezelik, és ennek megfelelően cselekszenek.
Ahogy a mesterséges intelligencia egyre fejlettebbé válik, úgy tűnik, nemcsak pontosabb válaszokat ad, hanem hajlamosabb tévedni is. A modern chatbotok szinte minden kérdésre igyekeznek válaszolni, a hibás válaszok száma nőtt, és az emberek gyakran nem veszik észre ezeket.
Az AI néha triviális kérdések esetén sem képes a jogi gondolkodás alapját képező normatív és dogmatikai szempontokat a megfelelően értelmezni.
Vigyázat: egy jogban járatlan személy számára a hamis információ pont olyan jól hangzik, és pont olyan meggyőző, mintha valós lenne.

Miért adhat hibás válaszokat az AI?
Az AI nem elemzi logikailag a hatályos jogszabályokat, nem rendelkezik jogértelmezési képességgel, nem rendelkezik a vonatkozó törvények, egyéb jogszabályok és bírósági gyakorlat pontos, naprakész ismeretével, és nem képes azoknak az adott jogeset minden körülményét figyelembe vevő alkalmazására.
Az AI nem képes egy adott jogi tényállás (per)döntő mozzanatát kiválasztani, az egyes tényállási elemek között súlyozni.
Az AI statisztikai alapon, nagy nyelvi minták alapján generál szöveget, azaz egy adott szövegrész vagy kifejezés előfordulásának gyakoriságát elemzi, és azt tekinti helyes válasznak, ami egy adott szövegkörnyezetben leggyakrabban előfordul. Egy olyan szöveg esetén ami jelentősen eltért az AI által tanult mintáktól, már nem képes helyes választ adni.
A mesterséges intelligencia által adott válaszok nemcsak pontatlanok lehetnek, hanem olyan hamis biztonságérzetet is kelthetnek a felhasználóban, amely téves döntésekhez vezet.
Az alábbi választ a ChatGPT adta, amikor kifogásolták, hogy más a hatodik nem létező Ptk. hivatkozást adja meg válaszként:

Mit tegyen, ha mégis az AI által adott válaszok alapján kíván jogi ügyekben tájékozódni?
Az ellenőrző kérdésekre adott válaszok alapján jobban megítélhető, hogy az AI által adott válasz mennyire helytálló. Minél konzisztensebb egészet alkotnak az ellenőrző kérdésre adott válaszok az eredeti kérdésre adott válasszal, annál valószínűbb, hogy az AI által adott válasz helytálló.
Használja például a következő ellenőrző kérdéseket:
„Ez a válasz melyik jogszabályon, törvényhelyen vagy hivatalos forráson alapul?”
„Ez a jogi szabályozás a jelenlegi magyar jog szerint is érvényes?”
„Ez a válasz feltételezi bizonyos körülmények fennállását?”
„Mi változna, ha más tényezők lennének jelen az ügyemben?”
„Ez a válasz magyar bíróságok mely eseti döntéséből vezethető le?”
„Milyen hátrányos következményei lehetnek ennek a döntésnek?”
Végül: ne feledje, az AI legfeljebb jogi ismeretterjesztő eszköz, de nem jogi képviselő.
RU
UA
HU
EN