Principal Afaceri Elon Musk, Steve Wozniak se tem că „liderii tehnologici nealeși” dețin prea multă putere

Elon Musk, Steve Wozniak se tem că „liderii tehnologici nealeși” dețin prea multă putere

Ce Film Să Vezi?
 
  Sam Altman într-o cămașă verde.
CEO-ul OpenAI, Sam Altman. The Washington Post prin Getty Images

Un grup în creștere de lideri tehnologici și informaticieni, inclusiv Elon Musk și cofondatorul Apple Steve Wozniak , fac apel pentru OpenAI și alte laboratoare de inteligență artificială pentru a întrerupe antrenamentul A.I. sisteme care sunt mai avansate decât GPT-4, cel mai nou model de limbă din spatele generatorului de text ChatGPT.



Într-un scrisoare deschisă intitulat „Pauză Giant A.I. Experimente”, publicată ieri (28 martie) de Institutul nonprofit Future of Life, A.I. companiile sunt îndemnate să elaboreze un set comun de protocoale de siguranță în jurul I.A. avansate. dezvoltare înainte de a crea software-uri mai puternice care pot prezenta pericole pentru umanitate.








produse delta 8 lângă mine

Scrisoarea a strâns peste 1.000 de semnături de la antreprenori, academicieni și investitori influenți, inclusiv Elon Musk, Steve Wozniak, candidatul la președinția 2020 Andrew Yang, autorul israelian Yuval Noah Harari, informaticianul Yoshua Bengio, printre alții.



Succesul ChatGPT are a declanșat o cursă printre A.I. companiile mari și mici să dezvolte sisteme din ce în ce mai puternice pe care nici măcar creatorii lor nu le pot înțelege sau controla.

„AI avansate ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui să fie planificată și gestionată cu grijă și resurse pe măsură. Din păcate, acest nivel de planificare și management nu are loc”, se spune în scrisoare.






„Trebuie să ne întrebăm: ar trebui să automatizăm toate joburile, inclusiv pe cele îndeplinite?” A continuat. „Ar trebui să dezvoltăm minți non-umane care, în cele din urmă, ar putea să ne depășească numeric, să ne depășească și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre? Astfel de decizii nu trebuie să fie delegate liderilor nealeși din domeniul tehnologiei.”



razboiul stelelor trilogia rian johnson

Creșterea îngrijorării cu privire la I.A. de uz general.

A.I. sistemele sunt adesea descrise ca o tehnologie de tip cutie neagră care, odată inițiată, nimeni nu știe exact cum funcționează. Pe măsură ce software-ul nou precum ChatGPT devine aparent capabil să îndeplinească multe sarcini umane, există o teamă din ce în ce mai mare de viitorul I.A. sistemele depășesc și se întorc împotriva creatorilor lor umani. Este o preocupare pentru mulți lideri din industrie, inclusiv pentru creatorul ChatGPT.

„Ar putea o mașină să decidă că oamenii reprezintă o amenințare, să concluzioneze că interesele sale sunt diferite de ale noastre sau pur și simplu să nu mai aibă grijă de noi?” Bill Gates a scris într-un postare pe blog săptămâna trecută. „Aceste întrebări vor deveni mai presante cu timpul.”

Geoffrey Hinton, un profesor de informatică salutat ca „ nașul lui A.I. ”, a spus recent A.I. progresează mai repede decât cred majoritatea oamenilor. „Până de curând, am crezut că va dura 20 până la 50 de ani până să avem I.A. cu scop general. Și acum cred că ar putea fi 20 de ani sau mai puțin”, Hinton a spus CBS News în weekend.

Scop general A.I. sau inteligența generală artificială (AGI) sunt termeni care descriu A.I. sisteme care sunt capabile să facă tot ce poate un creier uman, cu orice limită privind dimensiunea memoriei sau viteza.

când va fi harry potter pe netflix

Hinton crede că este posibil ca computerele să obțină în cele din urmă capacitatea de a crea idei pentru a se îmbunătăți. „Aceasta este o problemă... Trebuie să ne gândim bine cum controlezi asta”, a spus el în interviul CBS.

La sfârșitul lunii februarie, CEO-ul OpenAI, Sam Altman, a scris un postare pe blog abordând în mod specific problema AGI. „La un moment dat, ar putea fi important să obțineți o revizuire independentă înainte de a începe să antrenați sistemele viitoare și, pentru cele mai avansate eforturi, să convină să limiteze rata de creștere a calculului utilizat pentru crearea de noi modele”, a spus Altman în postare.

Susținătorii mesajului Institutului Viitorul Vieții cred că acest punct este acum. „A.I. cercetătorii ar trebui să folosească acest timp pentru a dezvolta un set comun de protocoale de siguranță pentru I.A. avansate. dezvoltare”, se spunea scrisoarea deschisă. „Asta nu înseamnă o pauză pe A.I. dezvoltare în general, doar un pas înapoi de la cursa periculoasă la modele din ce în ce mai mari imprevizibile cutie neagră cu capacități emergente.”

The Future of Life Institute este o organizație nonprofit cu sediul în Cambridge, Massachusetts, care promovează utilizarea etică și responsabilă a I.A. avansată. Organizația se află în spatele unui angajament din 2018 semnat de Musk și co-fondatorii DeepMind, un A.I. laborator deținut de Google, promițând că nu va dezvolta niciodată roboti ucigași pentru război.

Articole Care S -Ar Putea Să Vă Placă :