Esteu interessats en ells GRATU .T? Estalvia amb els nostres cupons activats QUÈ TAL o TELEGRAMA!

OpenAI crea un equip per als riscos "catastròfics" de la IA. Per això ens preocupa

OpenAI, una empresa ara a l'avantguarda del camp de la intel·ligència artificial, recentment anunciat la creació d'un nou equip amb la tasca específica de avaluar i mitigar els riscos potencialment catastròfics associats amb les tecnologies avançades relacionades amb la IA. Aquest moviment posa de manifest la importància creixent d'abordar de manera proactiva els reptes i perills que poden comportar els models generatius. Evidentment, on no estan degudament controlats.

Identificació de riscos per OpenAI

A mesura que la intel·ligència artificial evoluciona ràpidament, sorgeixen nous riscos que podrien tenir impactes greus a escala global. Per això, es dedicarà el nou equip de preparació d'OpenAI rastrejar, per a evaluar, previsió e proteggere contra aquests possibles problemes. Entre els riscos identificats hi ha: amenaces nuclear, un tema que posa de manifest la urgència d'una acció responsable en l'àmbit de la IA.

A més de les amenaces nuclears, l'equip també se centrarà en els perills relacionats amb les substàncies químics, biològics i radiològics, així com en ffenomen d'autoreplicació de la intel·ligència artificial, o la capacitat d'un sistema d'intel·ligència artificial per replicar-se de manera autònoma. Altres àrees d'atenció inclouen la capacitat de la IA per enganyar els humans i amenaces tot seguretat cibernètica.

Beneficis i reptes de la IA avançada

OpenAI reconeix que els models d'IA de frontera, els que superen les capacitats dels models existents més avançats, tenen el potencial de beneficiar a tota la humanitat. I no, al contrari del que penses, elLa intel·ligència artificial no és aquí per robar-nos la feina sinó més aviat per crear-lo.

Tanmateix, amb un gran poder, també ve una gran responsabilitat. Per tant, és fonamental desenvolupar-se polítiques informat sobre els riscos, que li permeten avaluar i supervisar models d'IA, per garantir que els beneficis superen els riscos associats.

openai ofereix recompenses a aquells que troben errors al xatgpt

Llegiu també: DeepMind té la solució per prevenir els riscos d'IA

El lideratge d'aquest nou equip ha estat confiat Alexandre Madry, una figura destacada en el camp de l'aprenentatge automàtic. Actualment en excedència del seu rol de director de Centre per a l'aprenentatge automàtic desplegable del MIT, Madry coordinarà els esforços per desenvolupar i mantenir una política de desenvolupament basada en el risc.

Cap a una prioritat global

El CEO d'OpenAI, Sam Altman, no és nou a les preocupacions sobre els riscos potencialment catastròfics de la IA. Va suggerir que el tractament de les tecnologies d'IA hauria de ser ppresa tan seriosament com la de les armes nuclears, destacant la necessitat d'un esforç col·lectiu per mitigar els riscos d'extinció associats a la IA. Aquest nou equip representa un pas concret cap a la realització d'aquesta visió, destacant el compromís d'OpenAI de contribuir a a gestió responsable de la Intel·ligència Artificial.

Gianluca Cobucci
Gianluca Cobucci

Apassionat pel codi, els idiomes i els idiomes, les interfícies home-màquina. Tot el que implica evolució tecnològica m'interessa. Intento difondre la meva passió amb la màxima claredat, basant-me en fonts fiables i no "només en el primer que ve".

subscriure
Notificami
convidat

0 comentaris
Respostes en línia
Veure tots els comentaris
XiaomiToday.it
Logo