L1 eta L2 erregularizazioa Machine Learning-en

Lazoa
L1Erregularizazioa
Gehiegitzea
L2Erregularizazioa
L1 eta L2 erregularizazioa Machine Learning-en cover image

L1 eta L2 bezalako erregularizazio teknikak erabiltzen dira ikaskuntza automatikoko ereduetan gehiegizko egokitzea ekiditeko, koefiziente handiak zigortuz.

L1 erregularizazioak, Lasso erregularizazioa izenez ere ezagutzen dena, ezaugarrien koefizienteen balio absolutuarekiko proportzionala den zigor-terminoa gehitzen du. Ezaugarritasuna bultzatzen du koefiziente batzuk zehazki zerora eramanez, funtzioen hautaketa eraginkorra eginez, hain garrantzitsuak ez diren ezaugarriak ezabatuz. Ezaugarri hautatzeko gaitasun honek L1 erregularizazioa bereziki erabilgarria egiten du ezaugarri asko dituzten datu-multzoak tratatzerakoan, ereduak sinplifikatzen laguntzen baitu ezaugarri garrantzitsuenetan arreta jarriz. Ondorioz, ereduaren sinplifikazioak gehiegizko egokitzea murrizten du.

Bestalde, L2 erregularizazioak, Ridge erregularizazioa izenez ere ezagutzen dena, ezaugarrien koefizienteen karratuarekin proportzionala den zigor-terminoa gehitzen du. Ez ditu koefizienteak zero izatera behartzen, baizik eta zerorantz murrizten ditu, ezaugarri guztiek ereduari neurri batean lagunduz. L2 erregularizazioa eraginkorra da multikolinealitatea maneiatzeko eta, oro har, eredu egonkorragoak baina gutxiago urriagoak dakar L1 erregularizazioarekin alderatuta.

L1 erregularizazioa onuragarriagoa izan daitekeen eszenatokiak hauek dira:

  • Ezaugarri asko dituzten dimentsio handiko datu-multzoak: ezaugarrien espazioa handia duten datu-multzoak tratatzean, L1 erregularizazioak ezaugarrien aukeraketa automatikoan laguntzen du, ereduaren interpretagarritasuna eta errendimendua hobetuz.

  • Ezaugarrien urritasuna espero denean: ezaugarri gutxi batzuk baino ez direla benetan eragingarria aurreikusten den domeinuetan, L1 erregularizazioak funtzio horiek modu eraginkorrean identifikatu eta bideratu ditzake.

Hala ere, L1 erregularizazioa eraginkorra ez da izan:

  • Ezaugarri guztiak garrantzitsuak direla suposatzen da: ezaugarri gehienak garrantzitsuak direla eta edozein baztertzeak informazio galera eragin dezakeela uste bada, baliteke L1 aukerarik onena ez izatea, koefizienteak zeroan ezarri ohi dituelako.

  • Datu multzoak kolinearitate anitzeko arazoak ditu: L2 erregularizazioa hobeto egokitzen da kolinearitate anitzeko arazoak kudeatzeko L1 erregularizazioarekin alderatuta.

Praktikan, L1 eta L2 erregularizazioaren konbinazio bat, Elastic Net erregularizazioa izenez ezagutzen dena, bi teknikei etekina ateratzeko erabil daiteke, L1-ren urritasuna eta L2-ren egonkortasuna aprobetxatuz.


Career Services background pattern

Lanbide Zerbitzuak

Contact Section background image

Jarrai gaitezen harremanetan

Code Labs Academy © 2024 Eskubide guztiak erreserbatuta.