Esteu interessats en ells GRATU .T? Estalvia amb els nostres cupons activats QUÈ TAL o TELEGRAMA!

Com va evolucionar la IA lingüística i com vam arribar a ChatGPT

Intel·ligència artificial Avui està en boca de tothom. Ara ja sabem com utilitzar-lo: només cal accedir a Internet i utilitzar plataformes com ChatGPT, Dall-E i Synthesia. En aquest sentit, estem preparant un interessant article que parla de 10 webs que utilitzen la intel·ligència artificial per fer coses molt diferents. Però dit això, prenguem l'exemple de la IA més utilitzada. Com va néixer i com hem arribat a la versió que tots podem utilitzar avui gratuït?

Avui molts de nosaltres fem servir ChatGPT, però no tothom sap què hi ha darrere i com hi hem arribat. Aquí teniu una història des dels anys 80 fins avui

Comencem pels anys 80: Xarxes Neuronals Recurrents

ChatGPT és una versió de GPT-3, un model de llenguatge molt gran desenvolupat per OpenAI. Els models lingüístics són un tipus de xarxa neuronal que s'ha format en molts textos. Les xarxes neuronals són programari inspirat en la manera com les neurones del cervell humà es comuniquen entre elles. Com que qualsevol text es compon de seqüències de lletres i paraules de longitud variable, els models lingüístics requereixen un tipus de xarxa neuronal que pugui donar sentit a aquest tipus de dades. Xarxes neuronals recurrents (Xarxes neuronals recurrents) inventats a la dècada de 80, poden manejar seqüències de paraules, però són lents d'entrenar i poden oblidar paraules apreses prèviament en una seqüència. Els LSTM podien gestionar cadenes de text de diversos centenars de paraules, però les seves capacitats lingüístiques eren limitades. Que són? Acrònim de “Memòria a curt termini"O"memòria a curt termini” és una xarxa neuronal artificial utilitzada en els camps de la intel·ligència artificial 

xatgpt als robots d'intel·ligència artificial

Llegiu també: Google confirma la compatibilitat del contingut generat per Chatbot i AI

2017: l'any del punt d'inflexió de la intel·ligència artificial amb Transformers

L'avenç que va conduir a la generació actual de grans models lingüístics es va produir quan un equip d'investigadors de Google va inventar el Transformadors, un tipus de xarxa neuronal que pot rastrejar on apareix cada paraula o frase en una seqüència. Entendreu per vosaltres mateixos que el problema més gran dels LSTM està superat. Però com ho van fer? El concepte de lingüística aplicada entra a la tecnologia. El significat d'una paraula sovint depèn del significat d'altres paraules que la precedeixen o la segueixen. Fer un seguiment d'aquests informació contextual, els transformadors poden gestionar cadenes de text més llargues i capturar el significat de les paraules amb més precisió. Per exemple, "hot dog" té un significat molt diferent a les frases "Prefereixo les hamburgueses als gossos calents"I"Els gossos calents es mengen millor amb mostassa“. En essència, la informació contextual, que és el que obtenen els humans i les màquines no, ha marcat la diferència.

2018-2019: els anys del desenvolupament de GPT

Els dos primers models lingüístics principals d'OpenAI van arribar amb pocs mesos de diferència. L'empresa volia desenvolupar una intel·ligència artificial polivalent i de propòsit general i creu que els grans models lingüístics són un pas clau cap a aquest objectiu. D'aquesta manera el programari és capaç de identifiqueu vosaltres mateixos patrons a les dades, sense que li diguin què està mirant o llegint. Molts èxits anteriors en l'aprenentatge automàtic s'han basat en l'aprenentatge supervisat i les dades anotades, però etiquetar manualment les dades és un treball lent que limita la mida dels conjunts de dades disponibles per a la formació. Era el GPT-2 causant el major enrenou. De fet, OpenAI va dir que estaven tan preocupats que la gent pogués utilitzar GPT-2".per generar llenguatge enganyós, distorsionat o abusiu” que no llançaria el model complet. Però no va acabar aquí.

Si GPT-2 va ser impressionant, la seqüela d'OpenAI, GPT-3, va fer literalment una revolució. La seva capacitat per generar textos semblants a humans va representar un gran salt endavant. GPT-3 pot respondre preguntes, resumir documents, generar històries en diferents estils, traduir entre anglès, francès, espanyol i japonès, i molt més. Tanmateix, encara no pot substituir un ésser humà perquè no té les característiques fonamentals de la humanitat. N'hem parlat en profunditat aquest article.

Font | MIT

Gianluca Cobucci
Gianluca Cobucci

Apassionat pel codi, els idiomes i els idiomes, les interfícies home-màquina. Tot el que implica evolució tecnològica m'interessa. Intento difondre la meva passió amb la màxima claredat, basant-me en fonts fiables i no "només en el primer que ve".

subscriure
Notificami
convidat

0 comentaris
Respostes en línia
Veure tots els comentaris
XiaomiToday.it
Logo