The Surprising Science Behind AI’s Reluctance to Say “I Don’t Know”
  • AI pētnieki koncentrējas uz liela mēroga valodas modeļu (LLM) precizitātes un atbildības uzlabošanu atbildes sniegšanā.
  • LLM “atzītā objekta” funkcija aktivizē atbildes mehānismu atpazīstamiem terminiem, piemēram, “Maikls Džordans”, apsteidzot “nevar atbildēt” aksiomu.
  • Nezināmi vārdi, piemēram, “Maikls Batkins”, izraisa vilcināšanos LLM, novedot pie atvainojošām atbildēm, lai izvairītos no nepatiesas informācijas.
  • Neironu svaru pielāgojumi dažkārt var likt modeļiem pārliecinoši ģenerēt nepatiesu informāciju, ko sauc par “halucināciju”.
  • Izpratne par līdzsvaru starp atpazīšanu un atsauci LLM ir svarīga, lai novērstu dezinformāciju un saglabātu AI integritāti.
  • Pastāvīga izpēte ir būtiska, lai uzlabotu AI uzticamību, padarot to par uzticamu informācijas iegūšanas rīku.
IN SCIENCE YOU HAVE TO SAY IDONT KNOW | #briancox #shorts #science #politics #universe #physics

Ātri attīstošajā mākslīgā intelekta (AI) pasaulē precīzu un atbildīgu atbilžu iegūšana no liela mēroga valodas modeļiem (LLM) ir kļuvusi par galveno uzmanības centru pētniekiem. Recentie atklājumi ir izgājuši interesanti ieskati par to, kā šie modeļi izlemj, vai atbildēt uz jautājumu vai izteikt savas ierobežojumus.

Iedomājieties: LLM uzdod jautājumu par “Maiklu Džordanu”, labi pazīstamu sporta ikonu. Šajā situācijā sākas sarežģīta deja modeļa neironu shēmās. Tā kodolā ir atšķirīgs mehānisms, ko pētnieki raksturo kā “atzītā objekta” funkciju. Kad šāds termins parādās, šī funkcija aktivizē neironu reakciju kaskādi, apsteidzot garīgo šķērsli, ko tautā dēvē par “nevar atbildēt” aksiomu.

Savukārt, kad parādās vārds “Maikls Batkins” — vārds, kas nav atpazīstams modeļa plašajā datubāzē — mākslīgais intelekts vilcina. Šī vilcināšanās nav nejauša; tā ir rūpīgi noregulētu mākslīgo neironu rezultāts, kas veicina “nevar atbildēt” aksiomu. Modelis instinktīvi ķeras pie atvainojošām atbildēm, atturoties no informācijas izgatavošanas.

Tomēr tehnoloģija nav neapgāžama. Pastāv interesants fenomens, kas liecina, ka mākslīgā neironu svaru kalibrēšana var mudināt modeli pārliecinoši izdomāt atbildes pat par neesošām personām, piemēram, iedomātu sportistu “Maiklu Batkinu”. Šī spēja halucinēt iluzoras faktus, lai cik dīvaini tas būtu, norāda uz neironu kļūmi, kur modelis nepareizi uztver neatbalstītu ievadi, it kā tā būtu pamatota ar reāliem datiem.

Kāpēc tas ir svarīgi? Šo atklājumu centrā ir spēcīga mācība par līdzsvaru starp atpazīšanu un atsauci AI sistēmās. Ētisko AI atbalstītājiem likmes ir augstas: šie modeļi spēj atšķirt savas ierobežojumus var novērst dezinformācijas izplatīšanos. Tādējādi sapratne un šī delikātā līdzsvara noregulēšana ir būtiska ne tikai AI precizitātes uzlabošanai, bet arī tās integritātes saglabāšanai.

Anthropic novatoriskā izpēte par šīm neironu arhitektūrām izceļ pašreizējās AI tehnoloģijas solījumus un problēmas. Izgaismojot, kā LLM apstrādā un reaģē uz nepazīstamiem uzdevumiem, zinātnieki var pieņemt pamatotus lēmumus, kas uzlabo modeļa spēju sniegt uzticamu, patiesu palīdzību. Ar šiem sasniegumiem AI atrodas uz attīstības robežas no vienkāršiem digitāliem procesoriem līdz uzticamiem partneriem mūsu informācijas meklējumos.

Atklājot AI lēmumu pieņemšanas noslēpumus: kā liela mēroga valodas modeļi līdzsvaro zināšanas un ierobežojumus

Liela mēroga valodas modeļu mehānismu izpratne

Mākslīgā intelekta liela mēroga valodas modeļu (LLM) aizkulises darbības piedāvā interesantas ieskatus par to, kā šīs AI sistēmas interpretē un reaģē uz jautājumiem. Šie modeļi izmanto atpazīšanas un atsauces stratēģiju apvienojumu, lai ražotu precīzas atbildes — vai, ja trūkst pietiekamas informācijas, lai izvēlētos caurredzamību, atzīstot savas ierobežojumus. Zemāk mēs detalizēti pārskatām mehānismus un sniedzam praktiskas ieskatus par pašreizējo ainavu LLM.

Reālās pielietošanas gadījumi LLM

1. Izglītības rīki: LLM kalpo kā pieejami resursi dažādu priekšmetu apguvei. Izmantojot uzlabotu kontekstālo izpratni, tie var palīdzēt studentiem, sniedzot skaidras un attiecīgas skaidrojumus vai ierosinot papildus resursus.

2. Klientu atbalsts: Uzņēmumi izmanto LLM čatbotos, lai paātrinātu atbildes sniegšanu, piedāvājot 24/7 atbalstu un atbrīvojot cilvēka aģentus sarežģītākām jautājumiem.

3. Satura radīšana: LLM palīdz autoriem un tirgotājiem ģenerēt radošu saturu, sākot no emuāru ierakstiem un reklāmas teksta līdz interaktīvām stāstu stāstīšanas pieredzēm.

LLM izaicinājumi un ierobežojumi

1. Faktu halucinācija: Lai gan LLM, piemēram, halucinējot datus par “Maiklu Batkinu”, demonstrē radošas iespējas, tās arī uzsver kritisku ierobežojumu — potenciālo dezinformāciju. Nodrošināt caurredzamību attiecībā uz to, ko AI nezin, ir vitāli svarīgi.

2. Atbildes aizspriedumi: LLM mācās no plašām datu kopām, kas var atspoguļot nevēlamus aizspriedumus, kas var novest pie izkropļotām vai nepiemērotām atbildēm, ja tās netiek pareizi filtrētas.

3. Ilgtspējības bažas: LLM apmācīšana prasa ievērojamus aprēķinu resursus, kas ietekmē vides ilgtspēju. Nākotnes sasniegumiem ir jārisina šo modeļu energoefektivitāte.

Ieskatīšanās un nozares tendences

1. Tirgus izaugsme: AI un ML tirgus ir gatavs ievērojamai izaugsmei, uzņēmumi arvien vairāk integrē AI risinājumus dažādās jomās, lai uzlabotu efektivitāti un inovācijas.

2. Ētiskā AI attīstība: Pieaug spiediens izstrādāt ētiskus norādījumus un ietvarus, kas nodrošina AI sistēmu caurredzamību un atbildību, cīnoties pret potenciālas dezinformācijas izplatīšanu.

3. Drošības uzlabojumi: Kā LLM kļūst par integrālu daļu dažādās pielietošanas jomās, nodrošināt stipru drošību pret pretinieku uzbrukumiem un nepareizu izmantošanu joprojām ir galvenā prioritāte izstrādātājiem.

Soļi drošākai mijiedarbībai ar AI

Pārbaudiet informāciju: Vienmēr pārbaudiet AI modeļiem sniegto datu precizitāti, īpaši, ja paļaujaties uz tiem svarīgu lēmumu pieņemšanā vai zināšanu iegūšanā.

Iespējot atsauksmju mehānismus: Izmantojiet lietotņu iekšējās funkcijas, kas ļauj lietotāju atsauksmes, palīdzot izstrādātājiem precizēt un atjaunināt sistēmas pareizi.

Pārlūkojiet vairākus avotus: Salīdziniet AI ģenerēto informāciju ar citiem uzticamiem resursiem, lai nodrošinātu visaptverošu un precīzu izpratni.

Rīcības ieteikumi

Ētiskā AI apmācība: Atbalstiet iniciatīvas, kas koncentrējas uz ētisko AI apmācību un izpēti. Mudiniet platformas būt caurredzamām attiecībā uz modeļa ierobežojumiem un datu avotiem.

Uzraudzīt tehnoloģiju attīstību: Sekojiet līdzi jaunākajiem AI sasniegumiem platformās, kas veltītas mākslīgā intelekta un mašīnmācīšanās izpētei, piemēram, Anthropic, lai labāk izprastu evolucionējošo AI ainavu.

Personīgā izmantošana: Apdomīgi ieviešiet AI rīkus personiskajās un profesionālajās darbībās, izmantojot to stiprās īpašības, vienlaikus paliekot apzinīgām par tās pašreizējiem ierobežojumiem.

Lai iegūtu vairāk informācijas par AI un ētisku tehnoloģiju attīstību, apmeklējiet Anthropic.

Nobeigums

LLM trajektorija simbolizē gan ievērojamu potenciālu, gan iekšējas problēmas. Saprotot šo sarežģīto sistēmu ierobežojumus un iespējas, lietotāji, izstrādātāji un politikas veidotāji var kopīgi veidot nākotni, kurā AI darbojas kā uzticams sabiedrotais, nevis neskaidrību avots. Līdzsvars starp atpazīšanu un atbildīgu atsauci AI joprojām ir ļoti svarīgs, lai izveidotu uzticamus, ētiskus un efektīvus digitālos rīkus.

ByEmma Curley

Emma Curley ir izcila autore un speciāliste jaunajās tehnoloģijās un fintech jomā. Ieguvusi datorzinātņu grādu Džordžtaunas Universitātē, viņa apvieno spēcīgu akadēmisko pamatu ar praktisko pieredzi, lai orientētos strauji mainīgajā digitālās finanses ainavā. Emma ir ieņēmusi galvenās pozīcijas Graystone Advisory Group, kur viņa spēlēja nozīmīgu lomu inovatīvu risinājumu izstrādē, kas sasaista tehnoloģijas un finanšu pakalpojumus. Viņas darbs raksturojas ar dziļu izpratni par jaunām tendencēm, un viņa ir apņēmusies izglītot lasītājus par tehnoloģijas pārvērtējošo spēku finanšu industrijas pārveidošanā. Emmas ieskatu bagātie raksti un domāšanas līderība ir padarījuši viņu par uzticamu balsi profesionāļu un entuziastu vidū.

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *