Un nou estudi d’Apple assenyala les trampes cognitives dels grans models de llenguatge i suggereix que poden semblar intel·ligents tot i no comprendre el que diuen.
Ignasi, jo també he estat donant voltes al paper d'Apple aquesta setmana passada. Més enllà de tenir clar que els LLM no tenen un concepte socràtic del coneixement, em crida l’atenció que tot això que s’hi descriu, i que tu escenifiques molt bé en el primer paràgraf, són comportaments ben humans, oi? Igual que les al·lucinacions, igual que el fet que siguin capaces de fer trampes o mentir per assolir un objectiu.
El que vull dir és si no estem posant en marxa una IA feta a imatge nostra, amb tot el que això comporta, tant el bo com el dolent.
Totalment d’acotd. Per mi aquests estudis no posen en dubte la revolució que està provocant la IA; però poden servir per no caure en un excés de confiança en les seves respostes. Com sovint recomano: contrast de resultats, supervisió humana i feed-back permanent.
Ignasi, jo també he estat donant voltes al paper d'Apple aquesta setmana passada. Més enllà de tenir clar que els LLM no tenen un concepte socràtic del coneixement, em crida l’atenció que tot això que s’hi descriu, i que tu escenifiques molt bé en el primer paràgraf, són comportaments ben humans, oi? Igual que les al·lucinacions, igual que el fet que siguin capaces de fer trampes o mentir per assolir un objectiu.
El que vull dir és si no estem posant en marxa una IA feta a imatge nostra, amb tot el que això comporta, tant el bo com el dolent.
Totalment d’acotd. Per mi aquests estudis no posen en dubte la revolució que està provocant la IA; però poden servir per no caure en un excés de confiança en les seves respostes. Com sovint recomano: contrast de resultats, supervisió humana i feed-back permanent.