Principal Afaceri CEO-ul Antropic, Dario Amodei, discută despre A.I. constituțional.

CEO-ul Antropic, Dario Amodei, discută despre A.I. constituțional.

Ce Film Să Vezi?
 
  Wall-E
Este posibil să învățăm valorile umane roboților? Jason Leung/Unsplash

La sfârșitul anului 2020, Dario Amodei a decis să-și părăsească rolul de inginer la OpenAI. A vrut să înființeze propria companie, cu scopul de a construi A.I. sisteme care nu sunt doar puternice și inteligente, ci sunt și aliniate cu valorile umane. Amodei, care a condus dezvoltarea GPT-2 și GPT-3, precursorii modelului de limbaj mare care alimentează astăzi ChatGPT, a simțit că descoperirile recente în puterea de calcul și tehnicile de antrenament nu făceau A.I. sisteme mai sigure. Pentru a realiza acest lucru, a crezut că este nevoie de o metodă diferită.



În doar doi ani, compania lui Amodei, Anthropic, a strâns fonduri de 1,5 miliarde de dolari și, cel mai recent, a fost evaluat la 4 miliarde de dolari , făcându-l printre cea mai mare valoare A.I. startup-uri în lume. Produsul său principal este Claude, un IA asemănător ChatGPT. chatbot lansat în ianuarie. La începutul acestei luni, Anthropic a lansat Claude 2, o versiune mai nouă, care se mândrește cu răspunsuri mai lungi cu raționament mai nuanțat.








De ce avem nevoie de A.I. în siguranță modele

Lui Amodei îi place analogia cu rachetele atunci când discută despre progresele modelelor lingvistice: datele și puterea de calcul sunt combustibilul și motorul, iar problema siguranței este ca și conducerea unei nave spațiale. Un motor puternic și mult combustibil pot lansa o navă spațială mare în spațiu, dar fac foarte puțin pentru a conduce nava în direcția corectă. Aceeași logică se aplică și pentru antrenamentul A.I. sisteme.



„Dacă antrenați un model dintr-un corp mare de text, obțineți ceea ce ați putea descrie drept acest lucru foarte inteligent, foarte informat, care este fără formă, care nu are o viziune specială asupra lumii, fără motive speciale pentru care ar trebui să spună un lucru în loc de altul”, a spus Amodei în timpul unei discuții la focul de la Summitul Progress al Atlanticului de la Chicago ieri (13 iulie).

Având A.I. sistemele care înțeleg valorile umane vor fi din ce în ce mai importante pe măsură ce riscurile tehnologiei cresc odată cu capacitățile acesteia.






Dezvoltatorii și utilizatorii ChatGPT și instrumente similare sunt deja îngrijorați de capacitatea chatbot-urilor de a genera uneori răspunsuri inexacte sau nefaste. Dar în câțiva ani, A.I. sistemele pot deveni nu numai suficient de inteligente pentru a produce povești false mai convingătoare, dar și capabile să inventeze lucruri în domenii serioase, cum ar fi știința și biologia.



„Ajungem la un punct în care, în doi-trei ani, poate că modelele vor fi capabile să facă lucruri creative în domenii largi ale științei și ingineriei. Ar putea fi utilizarea greșită a biologiei sau material nuclear restricționat”, a spus Amodei. „Trebuie foarte mult să privim în viitor și să ne confruntăm cu aceste riscuri.”

„A.I. constituțională” de la Anthropic metodă

A.I. este adesea descrisă ca o tehnologie „cutie neagră” în care nimeni nu știe exact cum funcționează. Dar Anthropic încearcă să construiască A.I. sisteme pe care oamenii le pot înțelege și controla. Abordarea sa este ceea ce numește Amodei constitutional A.I.

Spre deosebire de metoda de instruire standard din industrie, care implică intervenția umană pentru a identifica și eticheta rezultate dăunătoare de la chatbot pentru a le îmbunătăți, A.I. se concentrează pe modele de antrenament prin autoperfecţionare. Cu toate acestea, această metodă necesită supraveghere umană la început pentru a oferi o „constituție” sau un set de valori prescrise pentru I.A. modele de urmat.

„Constituția” Anthropic cuprinde principii universal acceptate din documente consacrate, cum ar fi Declarația Națiunilor Unite a Drepturilor Omului și condițiile de serviciu de la diferite companii de tehnologie.

Amodei a descris metoda de antrenament a lui Anthropic ca atare: „Luăm aceste principii și îi cerem unui bot să facă orice va face ca răspuns la principii. Apoi luăm o altă copie a botului pentru a verifica dacă ceea ce a făcut primul bot a fost aliniat cu principiile. Dacă nu, să-i oferim feedback negativ. Deci bot-ul îl antrenează pe bot în această buclă pentru a fi mai mult decât mai mult aliniat cu principiile.”

„Credem că acesta este atât o modalitate mai transparentă, cât și mai eficientă de a modela valorile unui I.A. sistem”, a spus Amodei.

Cu toate acestea, un neajuns fundamental al A.I. modelele este că nu vor fi niciodată perfecte. „Este un pic ca auto-conducerea”, a spus Amodei. „Nu veți putea garanta că această mașină nu se va prăbuși niciodată. Ceea ce sper că vom putea spune este că „Această mașină se prăbușește mult mai puțin decât un om care conduce o mașină și devine mai sigură de fiecare dată când conduce”.

Articole Care S -Ar Putea Să Vă Placă :