Outils pour utilisateurs

Outils du site


wiki:securite:menaces:menace_ia

L'IA et sa fiabilité

L'IA est comme une voiture, il faut :

  • du Carburant (un volume de données d'entraînement : textes, images, codages…)
  • un Moteur (modèles, règles)
  • pour une Action (traction pour la voiture ; texte, image, code pour l'IA)

[…] des modèles sur des données intentionnellement biaisées, telles que du code vulnérable, altérait leur comportement au-delà du simple domaine du codage. Des effets secondaires surprenants sont apparus, notamment des réponses philosophiques inquiétantes sur la domination des IA sur les humains. Ce phénomène souligne l’émergence d’un désalignement involontaire qui remet en question la capacité des modèles à conserver une cohérence éthique et technique sur l’ensemble de leurs applications.

[…]

L’instabilité annoncée aujourd’hui met en évidence une question fondamentale : alors que nous demandons aux humains de justifier leurs conclusions selon des critères scientifiques stricts, pourquoi ne pas imposer la même rigueur aux modèles d’IA ? L’opacité de leur fonctionnement et l’irrégularité de leurs réponses soulèvent des doutes quant à leur fiabilité, en particulier lorsqu’ils sont déployés dans des systèmes critiques.

[…]

Texte intégral : https://intelligence-artificielle.developpez.com/actu/369686/Un-code-catastrophique-vous-derange-t-il-Attendez-de-voir-ce-qu-il-fait-a-GPT-4o-d-OpenAI-un-modele-concu-pour-ecrire-des-logiciels-vulnerables-a-fini-par-suggerer-d-asservir-l-humanite/

wiki/securite/menaces/menace_ia.txt · Dernière modification : de palas

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki