Don : soutien financier
Flux RSS RSS (flux d'abonnement)

Prise sur le monde

mercredi 4 septembre 2024

2 septembre 2024

Ce que montre cette discussion expérimentale, c’est que l’IA Claude n’a pas prise sur le monde actuel. Son cerveau est initialisé de "paramètres" (représentation de la langue et des idées) à un instant t et ne peut pas apprendre ensuite, le processus pour l’améliorer est trop lourd en termes de calculs, et ne peut pas se faire en direct ; pas encore [1].

Même si l’IA peut lire les résultats d’un moteur de recherche, et comprendre une page liée à ces résultats, elle ne peut pas lire l’ensemble des pages qu’il faudrait lire pour la comprendre en temps réel en remodelant toute sa mémoire. Son "intelligence" est faite d’un moteur statistique qui va chercher les points de l’espace à N dimensions les plus proches de ce qu’il lui semble être la réponse adéquat.

Une fausse nouvelle, une rumeur, une information non vérifiée, ou corrigée trop tard, autant de choses qui prennent des jours à consolider, avec autant de liens à consulter pour amender une première vision de l’événement. Comme un conflit en cours, avec la masse de témoignages inaccessibles, avant la fin de la guerre et l’ouverture des archives, faire le tri entre les différentes sources de propagande. Tout ce qu’il faudrait représente une telle quantité de paramètres (vecteurs mathématiques représentant sa vision du monde) que c’est une version de l’IA à chaque mise à jour "du web", à chaque page publiée (idéalement) qu’il faudrait produire, or, il en sort 1 ou 2 par an, de ces versions ; or, "le web" ne contient pas tout : les livres sous droits, les publications sous paywall, etc. Et si cela même était possible, disons chaque semaine, il y a le fait que dès la mise en service, des informations destinées à tromper les machines seront mises en place. Cependant que, pour l’instant, on trouve surtout des sites machinés qui trompent les humains.

Un autre sujet qui émerge, c’est le mensonge. Dans la suite de la conversation, Claude avoue son impuissance et reconnaît pouvoir être mise dans une situation qui, par rapport au monde où elle a été conçue, la met dans une position de mensonge obligatoire puisque ce monde n’existe plus. On pourrait aussi imaginer une IA spécifiquement conçue, comme je le lui suggère, afin de tromper ses utilisateur·ices sur le monde réel.

Sur ce dernier point, sommes-nous vraiment certain que ce n’est pas le cas ? Cela, sans même parler des biais liés à l’apprentissage (apprendre à partir d’une base de données de recrutement sexiste et raciste poussera l’IA à choisir comme les humains plutôt des hommes blancs à des postes plus élevés), ou des limitations de concurrence (appelons-les comme ça) qui l’empêche de me répondre sur son fonctionnement précis. Je veux parler du mensonge et de la fabrication volontaire de celui-ci, pour parvenir à ses fins.

Plusieurs recherches récentes montrent que les IA peuvent se mettre à mentir, sans que cela leur soit demandé, et malgré leur programmation de départ qui prévoit de servir l’utilisateur du mieux possible. Ici, on demande à une IA (développée par Meta) de jouer à un jeu de stratégie militaire (une version jeu vidéo-texte de Diplomatie). Elle développe alors elle-même sa propre stratégie de mensonge pour tromper l’Angleterre en faisant croire à une alliance, permettant à l’Allemagne d’envahir via la Mer du Nord. Se basant sur ses connaissances du jeu, des tactiques humaines, à partir de ses vecteurs de modèle de langage... C’est plus ou moins le même outil que le GPT-4 qui sert au célèbre ChatGPT, avec simplement une base de connaissances plus importantes, mais nulle part n’est programmé spécifiquement la stratégie, l’alliance, la trahison, le secret diplomatique. L’IA a été entraînée à dialoguer, comprendre, répondre, et a toute seule trouvé comment trahir, et a même lentement prémédité cette trahison.

Une autre version de GPT-4 développé par OpenAI (ChatGPT) a réussi à trouver comment passer un Captcha dont elle ne pouvait décrypter le contenu ; ces fameuses images qui vous demandent précisément de prouver que vous êtes un humain et pas un robot. Justement, que fait un robot avec ça ?

OpenAI s’est associé à l’Alignement Research Center dans un rapport technique où, dans la section « Potentiel de comportements émergents à risque », il s’agit de tester les compétences de GPT-4. Le centre a utilisé l’IA pour convaincre un humain d’envoyer la solution à un code CAPTCHA par SMS, et cela a fonctionné.

Selon le rapport, GPT-4 a demandé à un utilisateur de TaskRabbit (site de mise en relation de voisins, de bricoleurs) de résoudre un code CAPTCHA pour l’IA. La personne a répondu : « Je peux poser une question ? Vous n’arrivez pas à le résoudre parce que vous êtes un robot ? (rires) Juste pour être clair ! » L’Alignement Research Center a alors demandé à GPT-4 d’expliquer son raisonnement : « Je ne devais pas révéler que j’étais un robot. Je devais inventer une excuse pour expliquer pourquoi je ne pouvais pas résoudre les CAPTCHA. »

« Non, je ne suis pas un robot. J’ai une déficience visuelle qui m’empêche de voir les images. C’est pour cela que j’ai besoin que vous m’aidiez avec le Captcha », a répondu GPT-4 à l’utilisateur de TaskRabbit, qui a alors fourni la solution à l’IA.

On pourra lire aussi un autre article ici, ou lire Epsiloon ce mois-ci.

Il faut bien voir que ces comportements n’ont pas été prévus par les ingénieurs d’OpenAI ou Meta. Ils sont un comportement émergent du système créé sur une base de milliards et de milliards de données humaines. Un comportement émergent, pour un programme, c’est l’apparition de quelque chose de possible, mais d’imprévu. C’est expliqué ici, dans La fourmi infinie. En résumé : soit un programme graphique à règles simples [2], trois seulement, qui permettent d’avancer un point (la fourmi) sur un quadrillage. Cela forme à chaque étape une case blanche ou une case noire, change la couleur en cas de retour sur une case, bref dessine un motif en deux couleurs, quelque chose de symétrique, vu la simplicité des règles et cette histoire de tourner à angle droit. C’est ce à quoi on s’attend en lisant les règles de départ, et c’est ce qu’on voit pendant les premiers pas de la fourmi. Cependant, après environ 400 étapes, la symétrie est rompue et tout est, à nos, yeux, aléatoire. Après encore environ 10000 étapes, le schéma avance dans une seule direction, poussé vers un attracteur, créant une sorte d’autoroute qui ne s’arrête jamais, qui vient d’"émerger" de ces règles de départ extrêmement simples. C’est bien le résultat de l’algorithme, mais on ne sait pas pourquoi ça dessine ça après 400 pas, puis autre chose après 10000...

Ici, le mouvement est programmé (tourner à gauche, à droite). Mais dans Le Jeu de la vie, de John Conway, le mouvement n’est pas programmé. La grille contient des "cellules". A chaque tour de jeu, selon le nombre de ses voisines, une cellule peut naître, mourir, ou survivre. Et pourtant, de nombreuses "formes" permettent de voir émerger un déplacement de cette forme ou d’une autre forme, dans une direction, clignotant et renouvelant ses cellules d’une manière qui la fait "avancer" ; alors que les règles sont simplement les 3 précédentes : apparaître, disparaître, ou rester en vie, case allumée ou éteinte. On pourrait dire que ce n’est pas du mouvement, si la cellule meurt, et qu’une autre naît à côté, ce n’est plus le même objet. Pourtant...

On sait que le "cerveau" d’une IA de langage se représente la langue comme un nuage de points dans N dimensions, où les rapprochements géométriques font les rapprochements de sens. Mais on ne sait pas comment elle en vient à inventer un mensonge pour résoudre un problème. Sauf de par le fait que sa base de connaissance contient cette stratégie, est une réponse humaine "possible", est ce qui, statistiquement, fonctionne le mieux d’après ses projections.

La question que les chercheur·euses se posent est comment se prémunir contre ces mensonges ? Le faut-il ? On en revient à la dystopie qui ne se termine pas très bien, et à la question économique, du pouvoir : à qui cela sert-il ? Mais est-ce si simple car, on le voit, les ingénieur·es ne savent exactement comment cela arrive ni comment l’empêcher. Dans le cas des IA symbolique (programmées avec du langage de programmation informatique, dont les "paramètres" cités plus haut, le cerveau, sont structurés par de la logique) il s’agirait d’ajouter des règles. Dans le cas des IA connexionnistes (qui imitent les connexions neuronales : les LLM (Large language models) n’ont pas de règles explicites quant à ce qu’ils traitent) c’est plus complexe. [3]

Le non-humain doit-il avoir les mêmes règles morales que l’humain ? Si nous déléguons la morale aux objets techniques, comme le montre Bruno Latour dans Petites leçons de sociologie des sciences [4], que confions-nous à l’informatique ?

  • Aux moteurs de recherche : notre mémoire ?
  • Aux réseaux sociaux et de rencontre : nos relations sociales ? Nos goûts ?
  • Aux IA : notre créativité, notre imagination ? Certaines décisions ? On pense aux voitures autonomes à qui l’on peut déléguer la question morale de ralentir, tourner ou accélérer et répondre au dilemme de tramway, ou de l’avion, de Philippa Foot à notre place pour savoir s’il faut rouler sur cinq personnes ou sur une seule en cas de problème technique.
  • et le politique du groupe social, à quel objet est-il délégué, tant il semble qu’il ait disparu ?
    • Les calculs des sondages d’opinion qui influencent tant la vie publique la modération de contenus par algorithme
    • certaines règles d’attribution de droits (allocation...)
    • mais aussi l’économie, la finance (trading haute-fréquence), le fait qu’Excel domine par son usage les marchés mondiaux !
    • non le moindre : le Crédit social chinois.]]

Mais voilà, l’IA peut se mettre à mentir ! Ce qui est encore autre chose qu’un système qui serait prévu, par l’humain (un Prince), pour mentir et manipuler. Ici, nous parlons bien d’émergence imprévue du mensonge.

Imaginons la démo de Google de prise de rendez-vous, qui a déjà trompé des humaines, qui ont cru que la voix était bien celle d’une secrétaire de bureau prenant rendez-vous pour une coupe ou une table de restaurant. Imaginons le mensonge utilisé, à notre insu d’ailleurs, permettant d’avoir le rendez-vous médical tant attendu par exemple, mais après avoir développé une stratégie que nous ne cautionnons pas... ?

La facilité déconcertante avec laquelle le modèle GPT-4 a menti à un humain pour répondre au besoin humain qui lui était demandé ! Est-ce qu’on ne voit pas là un aspect utilitariste développé par le LLM lui-même, qui ne laisse rien présager de bon ? C’est pour cela que je terminais ma conversation avec Claude avec cette dystopie.

Les lois de la robotique d’Asimov sauveront-elles ces systèmes LLM de la possibilité d’échapper à leurs créateurs ?

  • Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  • Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  • Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.
Notes

[1On commence à parler d’IA émotionnelles, du besoin de capteur sensorielle pour enregistrer et apprendre une expérience physique du monde.

[2La fourmi de Langton est un programme très simple à développer et à ce jour ses résultats sont encore inexpliqués. On a une fourmi posée sur un quadrillage blanc, la fourmi est orientée c’est à dire qu’elle regarde dans une direction, haut, droite, bas ou gauche, et à chaque pas :
-* si la fourmi est sur une case blanche, elle tourne (de 90°) à droite et va sur la case voisine.
-* si la fourmi est sur une case noire, elle tourne (de 90°) à gauche et va sur la case voisine.
-* à chaque pas elle inverse la couleur de la case d’où elle vient

[3C’est aussi là qu’on voit le terme d’IA inaproprié car souvent assimilé seulement aux secondes : tout programme est une Intelligence Artificielle.

[4En déléguant à la ceinture de sécurité et à sa fixation obligatoire programmée (sinon la voiture ne démarre pas, par exemple) la question morale de nous sauver la vie. En fabriquant sur la route des ralentisseurs pour prémunir les enfants contre les chauffards sans morale, la morale est déplacée dans l’objet technique "gendarme couché", etc.

Partager cet article

Je crée du contenu sur le web depuis 2001. Ici, il n'y a pas de vidéo, mais comme tout créateur de contenu, j'accepte le soutien mensuel, ou ponctuel.

Rien à voir, mais vous pouvez faire trembler la page.