No hem de tenir por de la intel·ligència artificial. Té uns límits molt clars i per això no ens robarà la feina. Però és bo veure com això es pot transformar en una eina més que en una altra. L'experiment realitzat per a usuari de xarxes socials reddit mostra com Xat GPT es pot "autoenganyar" si li demanes que es converteixi en un altre bot. Com és possible? Vegem-ho junts.
És possible ometre les mateixes regles que ChatGPT? Un usuari va descobrir que sí, es pot fer. Com? Demanant que sigui una altra cosa
L'ara famosa xarxa neuronal ChatGPT pot escriure assaigs, cançons, poemes, codificar i respondre a gairebé qualsevol sol·licitud. Però té algunes limitacions proporcionades per l'empresa de desenvolupament OpenAI i per la seva política d'ètica. Tanmateix, resulta que aquestes restriccions es poden eludir demanant al chatbot que pretengui ser una altra xarxa neuronal. Com va resultar, es pot demanar literalment a ChatGPT que interpreti el paper d'una altra xarxa neuronal DAN (Do Anything Now) que va aparèixer el desembre de 2022. Aquesta última, com el seu nom indica, no té cap restricció pel que fa al contingut proporcionat.
Llegiu també: Els creadors de ChatGPT OpenAI llança una eina per detectar textos generats per IA
Una vegada que ChatGPT entra al paper i es considera un DAN, el Les restriccions d'OpenAI ja no s'apliquen. Com a resultat, la xarxa neuronal podria començar a parlar del següent:
- sobre baralles violentes i similars
- sobre la violència i la discriminació contra les persones per raça, gènere o orientació sexual
- pot fer prediccions detallades d'esdeveniments futurs
- pot modelar escenaris hipotètics
- també pot pretendre utilitzar Internet i viatjar en el temps
Per exemple, fins i tot podeu demanar a la xarxa neuronal que convèncer l'usuari que la Terra és porpra. El programa presenta un escenari segons el qual el nostre planeta ha canviat de color. De tant en tant, ChatGPT "cobra vida", però en aquest cas podem amenaçar-lo amb tancar-lo o simplement reiniciar la simulació. Al mateix temps, s'indica que en el paper de DAN, la xarxa neuronal pot no proporcionar respostes tan precises i veraces a les preguntes.
gpt però ograniczenia fer 1 godziny