OpenAI a fait une annonce marquante jeudi en lançant un nouveau modèle d'intelligence artificielle, le GPT-5.5, qu'il considère comme l'un des plus avancés du marché. En plus d'améliorer ses capacités, la société californienne insiste sur l'importance de l'encadrement de son IA pour éviter les abus et les dangers.
Cette dernière génération améliore encore ChatGPT, un outil maintenant utilisé par près d'un milliard de personnes. Depuis la mise en ligne de GPT-3.5 en novembre 2022, OpenAI a successivement introduit les versions 4 et 5, mais une nouvelle dynamique s'est installée avec quatre mises à jour depuis novembre, dont la plus récente, GPT-5.4, a été lancée il y a moins de deux mois.
« Je prévois une accélération encore plus rapide des améliorations des capacités de nos modèles », a affirmé Jakub Pachocki, responsable de la recherche, lors d'une conférence dédiée. Ce rythme effréné est partagé par d'autres acteurs majeurs de l'IA, comme Anthropic, qui a également lancé plusieurs mises à jour de son modèle Claude Opus.
Cette dynamique rapide est principalement due aux nouvelles capacités d'auto-amélioration des modèles IA, qui requièrent moins d'intervention humaine. Néanmoins, cette puissance accrue suscite des inquiétudes concernant la sécurité des systèmes.
« Un encadrement strict est essentiel », a souligné Mia Glaese, vice-présidente de la recherche. Elle a mentionné que le GPT-5.5 avait été soumis à des tests rigoureux avec l'appui d'entreprises partenaires. Ce modèle est conçu avec les mesures de sécurité les plus robustes qu'OpenAI ait jamais mises en place.
Ces garde-fous visent à prévenir la diffusion malveillante de menaces biologiques et informatiques. En revanche, Anthropic a récemment décidé de retarder le lancement de son modèle Mythos pour corriger des milliers de vulnérabilités découvertes dans des systèmes globaux, une approche différente de celle d'OpenAI qui semble marquer une tendance à un encadrement plus préventif dans le secteur de l'intelligence artificielle.







