Modely AI se nemohou učit za pochodu jako lidé

Modely AI se nemohou učit za pochodu jako lidé


SEI 218115115

Programy rychle ztrácejí schopnost učit se cokoli nového

Jiefeng Jiang/iStockphoto/Getty Images

Algoritmy, které jsou základem systémů umělé inteligence, jako je ChatGPT, se nemohou učit za pochodu, což nutí technologické společnosti utrácet miliardy dolarů trénovat nové modely od nuly. I když je to v tomto odvětví již nějakou dobu znepokojeno, nová studie naznačuje, že existuje inherentní problém se způsobem modelů jsou navrženy – ale může existovat způsob, jak to vyřešit.

Většina AI je dnes tzv neuronové sítě inspirované tím, jak mozky pracují, se zpracovatelskými jednotkami známými jako umělé neurony. Obvykle procházejí různými fázemi svého vývoje. Nejprve je vycvičena umělá inteligence, která vidí své umělé neurony doladěné pomocí algoritmu tak, aby lépe odrážely danou datovou sadu. Poté lze AI použít k reakci na nová data, jako jsou textové vstupy, jako jsou ty vložené do ChatGPT. Jakmile jsou však neurony modelu nastaveny ve fázi tréninku, nemohou se aktualizovat a učit se z nových dat.

To znamená, že většina velkých modelů umělé inteligence musí být přeškolena, pokud budou k dispozici nová data, což může být neúnosně drahé, zvláště když tyto nové datové sady sestávají z velké části celého internetu.

Výzkumníci se ptali, zda tyto modely mohou začlenit nové znalosti po počátečním školení, což by snížilo náklady, ale nebylo jasné, zda jsou toho schopny.

Teď, Shibhansh Dohare na University of Alberta v Kanadě a jeho kolegové testovali, zda lze nejběžnější modely umělé inteligence přizpůsobit tak, aby se neustále učily. Tým zjistil, že rychle ztrácejí schopnost učit se cokoli nového, přičemž obrovské množství umělých neuronů uvízne na hodnotě nula poté, co jsou vystaveny novým datům.

“Pokud o tom přemýšlíte jako o svém mozku, bude to jako 90 procent neuronů mrtvých,” říká Dohare. “Prostě už nezbývá dost, aby ses mohl učit.”

Dohare a jeho tým nejprve vycvičili systémy umělé inteligence z databáze ImageNet, která se skládá ze 14 milionů označených obrázků jednoduchých objektů, jako jsou domy nebo kočky. Ale namísto toho, aby AI trénovali jednou a pak ji testovali tím, že se snažili rozlišit dva obrázky vícekrát, jak je standardem, přeškolili model po každém páru obrázků.

Tímto způsobem testovali řadu různých algoritmů učení a zjistili, že po několika tisících rekvalifikačních cyklech se sítě zdály neschopné se učit a fungovaly špatně, přičemž mnoho neuronů se jevilo jako „mrtvé“ nebo s hodnotou nula.

Tým také vycvičil AI tak, aby simulovala mravence, jak se učí procházet posilovacím učením, což je běžná metoda, kde se AI učí, jak vypadá úspěch, a určuje pravidla pomocí pokusů a omylů. Když se pokusili přizpůsobit tuto techniku ​​tak, aby umožnila kontinuální učení přetrénováním algoritmu po chůzi po různých površích, zjistili, že také vede k významné neschopnosti učit se.

Zdá se, že tento problém souvisí se způsobem, jakým se tyto systémy učí, říká Dohare, ale existuje možný způsob, jak to obejít. Výzkumníci vyvinuli algoritmus, který náhodně zapíná některé neurony po každém tréninkovém kole, a zdálo se, že snižuje špatný výkon. “Pokud a [neuron] zemřel, pak ho jen oživíme,“ říká Dohare. “Nyní je schopen se znovu učit.”

Algoritmus vypadá slibně, ale bude muset být otestován pro mnohem větší systémy, než si budeme jisti, že pomůže, říká Mark van der Wilk na univerzitě v Oxfordu.

„Řešení neustálého učení je doslova otázka za miliardu dolarů,“ říká. “Skutečné, komplexní řešení, které by vám umožnilo neustále aktualizovat model, by výrazně snížilo náklady na školení těchto modelů.”

témata:



Source link

Podobné příspěvky