Omgekeerde opleiding om die omkeervloek te verpleeg

Omgekeerde opleiding om die omkeervloek te verpleeg

Arxiv-skakel

20 Maart 2024

Die Omkeervloek

Groot taalmodelle (LLM's) soos GPT-4 en Llama-2 het indrukwekkende vermoëns in begrip getoon en die generering van mensagtige teks, wat 'n groot verskeidenheid kennis insluit. Hulle misluk egter in 'n oënskynlik eenvoudige taak: om geleerde feite om te keer. Hierdie beperking, wat die "Omkeervloek" genoem word, impliseer dat LLM's nie kan aflei dat "B 'n kenmerk van A is" uit die aanleer van "A het 'n kenmerk B," 'n basiese redenasievaardigheid wat selfs kinders besit. Hierdie referaat stel "Reverse Training" bekend, 'n nuwe metode om hierdie uitdaging aan te spreek deur 'n tweerigting-opleidingsbenadering te gebruik om die model se begrip van feite in beide vorentoe- en omgekeerde formate te verbeter.

Die oorsprong van die ommekeervloek

Die probleem spruit voort uit die fundamentele opleidingsbenadering van LLM's, wat tipies outoregressiewe, links-na-regs-leer behels. Hierdie metode leer nie inherent die modelle om inligting in die omgekeerde volgorde te verstaan ​​of te genereer nie. Gegewe die aard van dataverspreiding volgens Zipf se wet, word baie feite net in een rigting genoem, wat hierdie kwessie vererger. Die "Omkeervloek" beperk die LLM's se begrip van wederkerige verhoudings en ekwivalensie in stellings, wat 'n beduidende tekortkoming in hul redenasievermoëns aandui.

Om die omkeervloek te oorkom met omgekeerde opleiding

Die voorgestelde oplossing, Reverse Training, verdubbel die beskikbare opleidingsdata deur beide oorspronklike en omgekeerde weergawes van oefenstringe in te sluit. Die omkeerproses is versigtig om nie sekere substringe, soos entiteitsname, te verander nie en hul oorspronklike volgorde te behou om konteks te bewaar. Hierdie metode, soortgelyk aan die bekendstelling van 'n tweede taal vir die LLM om te leer, verbeter aansienlik die model se vermoë om inligting in beide rigtings te verwerk en te genereer.

Toets die omgekeerde opleidingsmetode

Die skrywers het die volgende eksperimente uitgevoer om hul voorgestelde metode te toets:

1- Simboliese omgekeerde taak: 'n Gekontroleerde omgewingstoets wat die metode se vermoë demonstreer om omgekeerde verwantskappe af te lei en toe te pas.

2- Omkeer biografietaak: Gebruik 'n biografiedatastel om prestasie te assesseer in die generering van persoonsname uit gegewe besonderhede, omgekeerd.

3- Werklike Kennis Omkering: Evalueer die metode se doeltreffendheid in werklike scenario's, insluitend omkeer van feite oor bekendes en hul verhoudings.

4- Fynafstelling van fiktiewe feite: Toets die model se leervermoë op nuut-ingevoerde, omgekeerde fiktiewe feite.

Oor hierdie eksperimente het Reverse Training nie net die Omkeervloek versag nie, maar dit in sommige gevalle heeltemal uitgeskakel. Die metode het besonder effektief geblyk toe entiteitsname in hul oorspronklike volgorde behoue ​​gebly het tydens die omkeerproses, wat die belangrikheid van die handhawing van sekere kontekstuele ankers beklemtoon het.

Implikasies en toekomstige rigtings

Die sukses van Reverse Training in die aanspreek van die Reversal Curse open nuwe weë vir LLM-opleidingsmetodologieë. Deur modelle se begrip van wederkerige verhoudings en ekwivalensie in stellings te verbeter, maak hierdie benadering die deur oop vir meer gesofistikeerde redenasievermoëns. Toekomstige navorsing kan verdere optimalisering van die omkeerproses, die potensiaal vir die integrasie van omgekeerde opleiding in ander taalmodel-argitekture en breër toepassings van hierdie metode in natuurlike taalbegrip en genereringstake ondersoek.

Code Labs Academy © 2024 Alle regte voorbehou.