Nástroje AI sú dnes široko dostupné, ale vzdelávanie o ich správnom používaní je ešte len v plienkach. O chybách, ktoré možno pri používaní AI urobiť, sa bolestivo presvedčil právnik, ktorý na zber údajov pre svoj prípad použil ChatGPT.
Nesprávne zaobchádzanie s ChatGPT sa skončilo katastrofou, pretože dôkazy získané pomocou AI sa ukázali ako úplne falošné. Táto chyba sa ukázala nielen ako nepríjemná pre samotného právnika, ale je aj klincom do rakvy jeho viac ako 30-ročnej kariéry. Teraz sa postaví pred súd.
Omyl, ktorý sa stane exemplárnym príkladom potreby vzdelávania v oblasti AI
Na celej situácii je najiracionálnejšie to, že prešľap právnika Stevena Schwartza sa týka veľmi banálnej záležitosti. Súdny proces sa týkal sťažnosti cestujúceho leteckej spoločnosti Avianca. Právnikovho klienta udrela letuška servírovacím vozíkom. Letecká spoločnosť podala návrh na zamietnutie žaloby z dôvodu nízkej závažnosti incidentu. Cestujúci nebol zranený.
Vzhľadom na to, že prípad bol predložený takýmto spôsobom, právnik Schwartz sa rozhodol uviesť podobné prípady a ukázať, že s inými obeťami sa nezaobchádzalo tak ľahkovážne. Podľa advokáta to bol dokonalý plán, ako poraziť návrh na zamietnutie prípadu.
Aby získal zoznam prípadov a potrebné argumenty, rozhodol sa spoľahnúť na ChatGPT. Steven zadal jednoduchú výzvu a veril, že údaje, ktoré dostal, ako sú podrobnosti, mená, sú pravdivé. Tieto argumenty predložil na súde, ale čoskoro vyšlo najavo, že spoločnosť ChatGPT si všetky údaje vymyslela a tieto prípady sa nikdy nestali. Viac ako 30-ročná kariéra právnika je teraz v troskách a pravdepodobne sa bude musieť pred súdom zodpovedať z použitia falošných dôkazov v tomto prípade.
Adekvátna výzva
Vzdelávanie v oblasti nástrojov umelej inteligencie je mimoriadne dôležité. Uvedená situácia je toho dokonalým príkladom. Dôvodom katastrofálneho nešťastia právnika bola neznalosť správneho podnecovania a halucinácie ChatGPT.
Ak dopyt nedá ChatGPT jasný pokyn, aby nepoužíval falošné údaje, LLM sa pokúsi pridať informácie, ktoré robia príbeh zaujímavejším. Navyše až približne 25 % odpovedí ChatGPT sú halucinácie, teda situácia, keď umelá inteligencia poskytuje neoverené informácie. Preto je dôležitá nielen správna výzva, ale aj princíp obmedzenej dôvery. Bohužiaľ, mnohí ľudia slepo dôverujú nástrojom umelej inteligencie. V kombinácii s nedostatočným vzdelaním v tejto oblasti to môže skončiť katastrofou a vážnym poškodením reputácie.