OpenAI confesse son incapacité à identifier les textes générés par l'IA
L'intelligence artificielle (IA) s'infiltre dans notre quotidien à une vitesse folle, mais la possibilité de différencier les textes produits par l'IA de ceux écrits par des humains reste une question brûlante. OpenAI, une entreprise de pointe dans le domaine de l'IA, a récemment fermé son outil de détection IA, affirmant qu'il ne produisait pas des résultats fiables.

L'échec de l'outil de détection d'IA d'OpenAI
Mis en ligne après le lancement de son produit ChatGPT, l'outil de détection de OpenAI visait à identifier les textes générés par l'IA. Les utilisateurs pouvaient coller un texte dans une zone de saisie dédiée, et l'outil indiquait le pourcentage du texte écrit par une IA. Cependant, l'entreprise a averti que les résultats produits par cet outil n'étaient pas infaillibles, avec le risque de faux négatifs et de faux positifs.
Fermeture de l'outil - La fiabilité en question
OpenAI a mis à jour son blog pour annoncer que les performances de l'outil étaient insatisfaisantes et qu'il avait par conséquent été déconnecté. "Notre détecteur d'IA n'est plus en service à partir du 20 juillet 2023 en raison de sa fiabilité insuffisante", a indiqué OpenAI. Malgré cet obstacle, l'entreprise s'est engagée à poursuivre ses efforts pour développer des mécanismes permettant aux utilisateurs de distinguer si le contenu audio ou visuel a été généré par l'IA ou non.
Performance des autres outils IA sur le marché
Il existe d'autres outils de détection sur Internet, conçus avec diverses approches, comme Copyleaks, GPTZero, ou l'outil proposé par Writer. Cependant, nos test ont révélé que ces outils identifient erronément des textes completements humains comme étant générés par une IA, surtout si le texte est modifié, même minimalement.
L'ambiguïté grandissante dans la détection IA
À l'inverse, les textes générés par l'IA sont souvent détectés comme s'ils étaient produits par un humain, illustrant la difficulté croissate pour distinguer un texte généré par l'IA, particulièrement à travers le modèle GPT-4. Cette confusion risque d'intensifier à mesure que les modèles de l'IA deviennent de plus en plus sophistiqués.
La quête continue pour des solutions de détection efficaces
OpenAI, ainsi que d'autres universités et organismes à la recherche de moyens de limiter l'utilisation abusive de l'IA, admettent ne pas savoir comment améliorer la détection pour le moment. Cependant, la firme réitère son engagement à chercher de nouvelles stratégies de détection. Elle a exprimé son engagement à "continuer le développement et déploiement des mécanismes qui permettent aux utilisateurs de comprendre si un contenu est généré par l'IA".
Plus d'articles à lire
La fameuse IA ChatGPT s'infiltre dans le logiciel le plus po...
Le 3 novembre 2023
Microsoft lance un générateur d’images IA gratuit : verdict ...
Le 3 novembre 2023
L'Est Républicain suspend son projet audacieux d'intelligenc...
Le 2 novembre 2023
Newsletter
Recevez les prochains articles par email
1 email / semaine maximum, aucun spamou abonnez-vous sur Google Actualités
Partager :