Mohou být chatboti AI ovládnuti zákonnou povinností říkat pravdu?

Mohou být chatboti AI ovládnuti zákonnou povinností říkat pravdu?


SEI 216143519

chatboti jsou rychle zaváděni pro širokou škálu funkcí

Andriy Onufriyenko/Getty Images

Lze umělou inteligenci přimět, aby říkala pravdu? Pravděpodobně ne, ale vývojáři chatbotů s velkým jazykovým modelem (LLM) by měli mít zákonnou povinnost snížit riziko chyb, říká tým etiků.

„Jen se snažíme vytvořit motivační strukturu, abychom přiměli společnosti, aby při vytváření systémů kladly větší důraz na pravdu nebo přesnost,“ říká Brent Mittelstadt na univerzitě v Oxfordu.

LLM chatbotijako je ChatGPT, generují lidské odpovědi na otázky uživatelů na základě statistické analýzy velkého množství textu. Ale i když jejich odpovědi obvykle vypadají přesvědčivě, jsou také náchylné k chybám – což je chyba označovaná jako „halucinace“.

„Máme tyto opravdu, opravdu působivé generativní systémy umělé inteligence, ale velmi často se kazí, a pokud dokážeme pochopit základní fungování systémů, neexistuje žádný zásadní způsob, jak to opravit,“ říká Mittelstadt.

Toto je „velmi velký problém“ pro systémy LLM, protože jsou zaváděny pro použití v různých kontextech, jako jsou vládní rozhodnutí, kde je důležité, aby poskytovaly věcně správné, pravdivé odpovědi a byly upřímné ohledně omezení. o jejich znalostech, říká.

K vyřešení problému navrhuje on a jeho kolegové řadu opatření. Říká se, že velké jazykové modely by měly reagovat podobným způsobem, jako by lidé reagovali na věcné otázky.

To znamená být upřímný v tom, co děláte a co nevíte. „Je to o provedení nezbytných kroků, abyste byli skutečně opatrní v tom, co tvrdíte,“ říká Mittelstadt. „Pokud si něčím nejste jisti, nebudete si jen něco vymýšlet, abyste byli přesvědčiví. Spíše byste řekli: ‚Hej, víš co? Nevím. Nech mě se na to podívat. Ozvu se ti.”

Zdá se to jako chvályhodný cíl, ale Eerke Boiten na De Montfort University ve Velké Británii se ptá, zda je požadavek etiků technicky proveditelný. Společnosti se snaží přimět LLM, aby se držely pravdy, ale zatím se ukazuje, že je to tak náročné na pracovní sílu, že to není praktické. „Nechápu, jak očekávají, že zákonné požadavky nařídí to, co považuji za zásadně technologicky nemožné,“ říká.

Mittelstadt a jeho kolegové navrhují některé přímočařejší kroky, které by mohly učinit LLM pravdivějšími. Říká, že modely by měly odkazovat na zdroje – něco, co nyní mnozí z nich dělají, aby doložili svá tvrzení, zatímco širší použití techniky známé jako rozšířená generace vyhledávání k nalezení odpovědí by mohlo omezit pravděpodobnost halucinací.

Tvrdí také, že LLM nasazené ve vysoce rizikových oblastech, jako je vládní rozhodování, by měly být zmenšeny nebo by měly být omezeny zdroje, které mohou čerpat. „Pokud bychom měli jazykový model, který bychom chtěli použít pouze v medicíně, možná ho omezíme, aby mohl vyhledávat pouze akademické články publikované ve vysoce kvalitních lékařských časopisech,“ říká.

Změna vnímání je také důležitá, říká Mittelstadt. “Pokud se nám podaří dostat pryč od myšlenky, že.” [LLMs] jsou dobří v odpovídání na věcné otázky, nebo alespoň v tom, že vám poskytnou spolehlivou odpověď na věcné otázky, a místo toho je chápou spíše jako něco, co vám může pomoci s fakty, které jim přinášíte, to by bylo dobré,“ říká.

Catalina Goanta na Utrechtské univerzitě v Nizozemsku tvrdí, že se výzkumníci příliš zaměřují na technologie a nedostatečně na dlouhodobé problémy falše ve veřejném diskurzu. „Ponižování LLM samo o sobě v takovém kontextu vytváří dojem, že lidé jsou dokonale pilní a nikdy by neudělali takové chyby,“ říká. “Zeptejte se kteréhokoli soudce, kterého potkáte v jakékoli jurisdikci, a bude mít hororové příběhy o nedbalosti právníků a naopak – a to není strojový problém.”

témata:



Source link

Podobné příspěvky