Müasir Dərin Neyron Şəbəkələri (DNN) mahiyyət etibarı ilə qeyri-şəffafdır, bu da onların qərar qəbul etmə proseslərini başa düşməyi çətinləşdirir. Bu şəffaflığın olmaması Maşın Öyrənmə texnikalarının müxtəlif sahələrdə geniş tətbiqinə mane olur. Cavab olaraq, izah edilə bilən AI (XAI) insanın DNN mühakimələrini başa düşməsini yaxşılaşdırmaq niyyətindədir. Hər bir komponentin funksional məqsədinə baxaraq, XAI indi fərdi proqnozları izah etmək üçün diqqəti cəlb edən xəritələrdən istifadə edən yerli izahat metodlarından fərqli olaraq, DNN-lərin qlobal davranışını anlamağa da diqqət yetirir.
Mexanik şərh edilə bilənlik neyron şəbəkəsinin əsas hesablama vahidləri olan neyronların başa düşmək qabiliyyətinə malik olduğu xüsusi fikirlərin dəqiqləşdirilməsinə yönəlmiş qlobal izahlılıq texnikasıdır. Neyronları insanlar üçün başa düşülən təsvirlərlə etiketləməklə şəbəkənin gizli təsvirlərinin işini izah edə bilərik. Bu təsvirlər sadə etiketlərdən mürəkkəb, kompozisiya və açıq lüğət izahlarına qədər irəliləmişdir. Buna baxmayaraq, bu açıq lüğət təsvirlərini qiymətləndirmək üçün standartlaşdırılmış kəmiyyət göstəricilərinin olmaması müxtəlif yanaşmalar üzrə hərtərəfli müqayisələrə mane olmuşdur.
Bu boşluğu aradan qaldırmaq üçün ATB Potsdam, Potsdam Universiteti, TU Berlin, Fraunhofer Heinrich-Hertz-Institute və BIFOLD-dan olan tədqiqatçılar CoSy üçün qabaqcıl kəmiyyət qiymətləndirmə çərçivəsini təqdim edirlər. kompüter görmə (CV) modellərində açıq lüğət izahlarından istifadənin qiymətləndirilməsi. Bu innovativ üsul konseptə əsaslanan mətn təsvirləri ilə əlaqəli süni təsvirlər yaratmaq üçün Generativ AI-dəki inkişaflardan istifadə edir. cozy, konkret hədəf izahatları üçün ümumi məlumat nöqtələrini sintez etməklə, müxtəlif konsepsiyaya əsaslanan mətn izahı yanaşmalarının kəmiyyət müqayisəsini asanlaşdırmaqla insanların qarşılıqlı əlaqəsinə ehtiyacı aradan qaldırır.
Tədqiqat qrupu geniş meta-analiz vasitəsilə nümayiş etdirdi ki, rahat izahatların etibarlı qiymətləndirmələrini təklif edir. Tədqiqat aşkar etdi ki, konsepsiyaya əsaslanan mətn izahı metodları ən yaxşı neyron şəbəkələrin yüksək səviyyəli anlayışların öyrənildiyi yuxarı təbəqələrində işləyir. Yüksək keyfiyyətli neyron izahatları neyron şəbəkəsi təsvirlərindən vizuallar yaradan INVERT və daxili şəbəkə təmsillərini araşdıran CLIP-Dissect kimi üsullarla hazırlanır. Əksinə, MILAN və FALCON kimi texnikalar aşağı keyfiyyətli izahatlar verir, bəzən demək olar ki, təsadüfi anlayışlar verir və bu da qeyri-dəqiq şəbəkə nəticələri ilə nəticələnə bilər.
Tədqiqatçıların etiraf etdiyi kimi CoSy-nin əsas çatışmazlığı ondan ibarətdir ki, təlim məlumatlarından xüsusi kateqoriyalar generativ modelə daxil edilməmiş ola bilər ki, bu da “ağ obyektlər” kimi çox ümumi və ya qeyri-müəyyən izahlara gətirib çıxarır. Təlimdən əvvəl verilənlər toplusunu və model performansını tədqiq etməklə bu problemi həll etməklə generativ dəqiqliyi artırmaq olar. Hətta hələ də rahat, yerli olmayan izahat üsullarının qiymətləndirilməsinin hələ də inkişaf etməkdə olan sahəsində böyük potensial nümayiş etdirir.
İrəliyə baxaraq, komanda CoSy-nin bir çox sahələrdə potensial tətbiqləri ilə bağlı ümidlidir. Aşağı axın tapşırığının nəticəsi ilə bağlı izahatın inandırıcılığını və ya keyfiyyətini qiymətləndirmək üçün insan mülahizələri izahat keyfiyyətinin tərifinə daxil edilməlidir ki, onlar gələcək işlərində bu məsələyə toxunmaq istəyirlər. Bundan əlavə, onlar təbii dil emalı və səhiyyə kimi əlavə sahələri öz qiymətləndirmə sistemlərinə daxil etmək istəyirlər. Böyük, qeyri-şəffaf, avtomatik şərh edilə bilən dil modellərini (LLM) qiymətləndirmək üçün rahatlığın potensial istifadəsi xüsusilə maraqlıdır. Tədqiqatçıların fikrincə, izahat keyfiyyətinin vacib olduğu səhiyyə məlumat dəstlərinə rahat tətbiq etmək irəliyə doğru böyük bir addım ola bilər. Rahatlığın bu potensial gələcək tətbiqləri AI tədqiqatlarını inkişaf etdirmək üçün böyük potensiala malikdir.