
C’est la guerre !
Après le tsunami ChatGPT et ses 100 millions d’utilisateurs en un temps record, Google vient d’annoncer, en catastrophe, sa réponse à ChatGPT : Bard.
La guerre Microsoft vs Google est déclarée !
Et tenez-vous bien : les rumeurs annoncent qu’Amazon planche aussi sur son Intelligence Artificielle (IA)…
Mais ce n’est pas tout ! Baidu, le moteur de recherche chinois, annonce : Ernie bot. La Chine n’est pas en retard dans le domaine et compte bien le montrer…
Bref, la bataille de l’IA ne fait que commencer… Et tout peut arriver !
Assiste-t-on à la fin d’un monde ? L’IA va-t-elle transformer nos emplois, notre économie ?
S’il est prématuré d’annoncer une révolution brutale, un processus s’est enclenché et il faut s’y préparer…
Cependant, il faut être pragmatique : si les promesses sont grandes, les limites le sont aussi.
Et c’est exactement ce que l’on se propose de faire : éclaircir le débat en examinant la réalité de ces « nouveautés ».
Fall in love with IA?
C’est le buzz tech du moment : ChatGPT !
Il s’agit d’une Intelligence Artificielle (IA) conversationnelle capable de répondre à toutes vos questions. Si vous avez échappé à ce maelstrom médiatique, je vous invite à lire notre article précédent pour bien comprendre le pourquoi du comment...
Car c’est un véritable phénomène : en à peine cinq jours, ChatGPT a réussi l’exploit d’attirer un million d’utilisateurs et seulement deux mois pour franchir le cap des 100 millions d’utilisateurs...
Jusqu’à ChatGPT, le grand public semblait peu conscient du potentiel de ces nouvelles technologies. Ce n’est désormais plus le cas !
De quoi faire pâlir d’envie Instagram ou TikTok !
Selon UBS (banque suisse) nous étions, en janvier, environ 100 millions de ChatGPT-eurs ! Sans compter ceux qui n’ont pu y accéder, car le site était saturé.
Alors, sommes-nous tous ChatGPT-eurs ?
Pas encore, mais il a séduit le grand public en quelques semaines… Un vrai sérial lover !
Sur les réseaux sociaux, nombreux déclarent avoir été bluffés et le comparent à l’apparition de l’iPhone ou y voient le futur remplaçant de Google .
Certains vont plus loin en prophétisant que l’IA dépassera bientôt l’homme dans tous les domaines d’ici quelques années…
Cette prophétie n’a rien de neuf : déjà en 1997, lorsque le champion d’échecs Garry Kasparov s’avoue vaincu face à Deep blue, un programme informatique conçu par IBM, les commentateurs annoncent la suprématie à venir des machines sur l’homme…
Rebelote en 2016 et 2017 avec AlphaGo, l’IA conçu par DeepMind (Google), qui bat les champions du monde de go : Lee Sedol et Ke Jie.
L’intellect humain est alors déclaré has been. Et pourtant, le combat continue…
Ces victoires contre les plus grands esprits humains ont nourri de vives polémiques et permis de grands pas en avant dans le domaine de l’IA et du deep learning.
Avec ChatGPT, la science-fiction n’est plus une fiction, mais bien la réalité et le phénomène inquiète autant qu’il fascine.
Et les entreprises ne sont pas en reste : elles sont au premier rang des investisseurs et utilisateurs d’IA, notamment concernant les produits de l’entreprise OpenAI, créatrice de ChatGPT.
C'est ce que montrent ces données :
L’intelligence artificielle (IA) s’utilise dans de nombreux domaines : technologie, éducation, automobile, santé, etc.
Et au vu des confortables bénéfices actuels et à venir du marché de l’IA…
Le grand amour pour l’IA, ses multiples déclinaisons et applications, ne risque pas de s’éteindre…
-
ChatGPT : est-ce une révolution ?
Si le monde découvre ChatGPT, la communauté scientifique travaille depuis bien longtemps dans le domaine de l’IA et des modèles de langage.
Yann Le Cun, pionnier et spécialiste de l'IA, a mis les pieds dans le plat : pour lui, ChatGPT "n'a rien de révolutionnaire bien que ce soit de cette manière que le public le perçoit, car, vous savez, c'est bien conçu".
Sur Twitter, il ajoute : "ChatGPT et d’autres grands modèles de langage ne sont pas sortis de nulle part, ils sont le résultat de décennies de contributions de différentes personnes".
Il tient alors à dire au public "qui perçoit ChatGPT comme une avancée technologique unique et innovante, en avance sur tout le monde, que ce (…) n'est tout simplement pas le cas.
ChatGPT s’inscrit donc dans la lignée de « gros modèles de langage » capables de digérer un gigantesque nombre de données et de générer du texte ou des images.
Récemment, on avait pu observer des avancées intéressantes avec Galactica (2022) ou LaMDA (2021). Mais très vite des problèmes ont entraîné l’éviction de ces modèles. (L’IA Galactica développée par Meta AI avait des propos racistes et mensongers ou erronés et LaMDA jouait la carte de la machine vivante et consciente…)
ChatGPT ne constitue donc pas une rupture, mais plutôt une progression, une continuité.
Pour être une rupture ou une révolution, il faudrait que ChatGPT passe de l’IA faible à l’IA forte.
Est-ce que ChatGPT va vers l'IA forte ?
De quoi parle-t-on ? L’intelligence artificielle forte est « une forme de machine intelligente qui équivaut à l’intelligence humaine ».
La machine aurait la capacité de raisonner, de porter des jugements, d’apprendre et de faire des choix, de prendre des décisions. Pour cela, il faudrait que l’IA développe une conscience, une sensibilité et une volonté autonome... comme un être humain.
Exemple : imaginez une voiture autonome en mesure de prendre des décisions face à un risque d’accident. Pour l’instant, aucune machine n’est capable de raisonner comme un humain pour faire face à ce genre de situations.
Et ChatGPT ? Après tout, un outil capable d’écrire un poème, des chansons, de communiquer peut donner l’impression d’être proche de l’humain… On en est loin.
ChatGPT est une IA faible
L’intelligence artificielle faible se reconnaît par le fait qu’elle est utilisée pour des tâches précises : faire des calculs, résoudre des problèmes précis, etc. L’IA n’a alors aucune conscience et n’agit que selon sa programmation.
Aujourd’hui, l’IA que l’on voit dans nos machines appartient donc à l’IA faible.
Citons une dernière fois Yann Le Cun : « ChatGPT n’est peut-être pas une révolution technologique, mais c’est une révolution d’usage. OpenAI n’a pas inventé l’intelligence artificielle, tout comme Apple n’a pas inventé le smartphone. Mais à la question « pouvez-vous citer le 1er smartphone », la majorité répondra l’iPhone. Personne ne parlera du Simon d’IBM ou du GS88 d’Ericsson ».
ChatGPT a rendu visible l’IA
Même si le grand public utilise régulièrement dans son quotidien des technologies s’appuyant sur l’IA, il n’en est pas forcément conscient.
On peut donc considérer que la donne a changé : il y a désormais un avant et un après ChatGPT, quel que soit le destin de ce chatbot intelligent.
ChatGPT a le mérite d’avoir popularisé l’IA et, en soi, c’est révolutionnaire.
-
Les limites de ChatGPT
N’interrogez pas ChatGPT au-delà de 2021 !
ChatGPT repose sur des données qui s’arrêtent en 2021. Et aucune mise à jour en direct n’est possible, car il n’est pas connecté à Internet.
Impossible donc pour lui de répondre à une question d’actualité… Ne lui parlez pas du décès de la reine Elizabeth II, il ne comprendrait pas.
Futurs objectifs d’OpenAI ? La mise à jour avec connexion internet !
En ce moment, Microsoft en est le fer de lance avec l’intégration, à l’essai, de ChatGPT dans son moteur de recherche Bing : bienvenue à Prometheus !
On l’annonce « beaucoup plus puissante » que ChatGPT.
Mais le moins qu’on puisse dire, c’est que le test n’est pas encore au point : ChaGPT Bing, ou plutôt son alter ego maléfique « Venom », insulte, ment, boude, se vexe et cherche à se comporter comme un humain.
De quoi mettre la bride sur l’IA rebelle en attendant une amélioration. À suivre…
Le problème des sources et des biais
On le sait : il ne faut pas croire tout ce qu’on lit sur Internet !
On y trouve tout et n’importe quoi : cela va des théories les plus farfelues, voire dangereuses, aux plus grandes synthèses scientifiques. Il est donc essentiel de toujours vérifier la véracité des informations trouvées et la qualité des sources.
Or, ChatGPT se présente à nous comme une encyclopédie digitale à laquelle on aurait envie de faire confiance.
Et c’est bien là le problème : on ne sait pas trop comment fonctionne l’engin. Impossible d’ouvrir le capot pour voir la mécanique ! Tout est verrouillé par l’entreprise.
Pour faire digérer les milliards de paramètres nécessaires à l’entraînement de ChatGPT, il a bien fallu trouver du contenu quelque part…
Or ce contenu ne peut se trouver, gratuitement, que sur internet. Et sur le web, il y a du bon et du mauvais en termes d’informations.
Certains forums de discussion, on le sait, ressemblant plus aux discussions de comptoirs bien arrosés que de la buvette bon chic bon genre de l’université d’Oxford.
Le risque ? Écrire des réponses fausses à partir de données peu fiables du Net.
Exemple :
Et si le contenu comporte des propos racistes ou sexistes ? ChatGPT pourrait alors reproduire ces biais.
(Et c’est exactement ce que Bing ChatGPT ou Prometheus vient de subir comme problème !)
Beaucoup pensent que ChatGPT est un moteur de recherche 2.0. C’est faux !
Contrairement à Google, ChatGPT ne donne pas ses sources. Et ça fait une énorme différence.
De quoi refroidir notre enthousiasme !
Alors, on sait que, pour éviter cela, son apprentissage a été « corrigé » et « contrôlé » par des humains… (Le magazine TIME, en janvier 2023, a révélé qu’OpenAI avait employé, via un sous-traitant, des travailleurs kényans, pour moins de 2 $/Heure, pour « modérer » ChatGPT)
Cet « apprentissage par renforcement humain » l’empêchant ainsi de « déraper » : ChatGPT, par exemple, ne se permettra pas d’avoir des propos racistes, sexistes ou discriminants. (À tel point que certains l’accusent d’avoir été nourri au wokisme…)
ChatGPT le dit très bien lui-même : « les algorithmes qui me contrôlent sont basés sur les données d'apprentissage sur lesquelles j'ai été formé. Ces données peuvent refléter les biais et les opinions de ceux qui ont créé ces données. Mon objectivité dépend donc de la qualité et de l'objectivité des données d'entraînement qui m'ont été fournies ».
ChatGPT n’est donc pas neutre, il a des biais idéologiques qui lui ont été imposés pour éviter tout dérapage.
Se pose alors une question : qui contrôle ce que produit l’IA et sur quelles bases ?
Bref, si on sait approximativement le principe du fonctionnement de l’IA, on ne connaît ni les sources qui ont entraîné l’algorithme, ni les valeurs ou biais qu’on lui a imposé.
Tout cela manque de transparence…
Source : https://www.numerama.com/tech/1251982-ne-faites-pas-confiance-a-chatgpt-il-ment-tout-le-temps.html
ChatGPT : roi des mythos ?
Les performances de chatGPT,et sans doute de ses concurrents, sont incroyables : aux États-Unis, un professeur à l'université de Columbia a fait passer à ChatGPT certains examens théoriques pour devenir avocat ou médecin.
Résultat ? Succès total de la machine !
On aurait tendance à lui faire confiance et l’on aurait tort !
Voici ce que déclarait récemment sur Twitter, Sam Altman, le fondateur d’OpenAI, à l’origine de ChatGPT : « ChatGPT est incroyablement limité, mais suffisamment bon pour (…) créer une impression trompeuse de grandeur. C'est une erreur de s'y fier pour quoi que ce soit d'important (…). C'est un aperçu du progrès ; nous avons beaucoup de travail à faire sur la robustesse et la véracité. Pour une inspiration créative amusante : super ! Recours à des questions factuelles : pas une si bonne idée. (…) »
ChatGPT ne sait pas de quoi il parle
Les « larges modèles de langage » comme ChatGPT sont prévus pour générer du texte qui semble être écrit par un humain.
Problème : on l’a dit précédemment, les données utilisées par ChatGPT viennent d’Internet et peuvent contenir des erreurs ou des fake news.
Or, sa programmation n’inclut pas de vérifier ses sources ou de trier les informations justes.
ChatGPT n'est entraîné qu'à prédire la probabilité du prochain mot d'une phrase, il ne vérifie à aucun moment la véracité des informations ingurgitées.
ChatGPT n’est pas vraiment intelligent : il ne comprend pas votre question, il n’y répond pas… il calcule juste la probabilité que les mots formant ses phrases et sa réponse soient plausibles.
L’IA n’a pas ces qualités essentielles qui font l’être humain : Il n’a ni émotions, ni conscience, ni esprit critique et est donc incapable de prise de position.
N’y cherchez ni du sens, ni du fond, tout n’est que forme !
Oui, côté forme, il a une bonne orthographe et ses réponses sont grammaticalement correctes… Mais parfois dénuées de sens. (D’ailleurs, son vocabulaire est souvent basique, car ce sont les mots sont les plus probables qu’il va trouver dans ses données).
Ainsi, il peut écrire avec beaucoup d’assurance des choses vraies comme des choses fausses. ChatGPT en a lui-même bien conscience : « L’intelligence artificielle peut être un danger épistémique parce qu’elle peut générer des informations convaincantes, mais fausses »
Attention : le problème, lorsqu’on ne connaît pas ou peu un sujet, c'est que sa réponse paraît correcte, car c’est bien écrit et sur un ton affirmatif.
Mais testez-le sur un terme ou un sujet précis que vous connaissez bien… et vous vous apercevrez vite du pot aux roses !
En absence de réponse solide à proposer, ChatGPT va vous mentir ou inventer.
Des chercheurs ont même découvert qu’« il était capable d’écrire des articles scientifiques totalement crédibles pour un néophyte sur une technologie... qui n’existe pas ».
Les exemples trouvés sur Twitter s’accumulent : ChatGPT invente des technologies scientifiques inexistantes, fait des démonstrations mathématiques fausses, etc.
Oui, il va jusqu’à donner de fausses informations, de fausses citations ou même de fausses sources… Et ce avec le culot d’un champion de poker, roi du bluff.
Exemple :
Hallucinant, hein ?
Non, c’est ChatGPT qui hallucine : les ingénieurs en IA parlent d’« hallucinations » lorsqu’une intelligence artificielle écrit ou invente quelque chose de complètement faux avec un ton assuré et une syntaxe juste.
Ainsi, si l’IA peut vous faire gagner un temps fou, elle ne remplace pas, encore, l’esprit critique d’un être humain : pour obtenir des réponses plus justes, pensez à intégrer dans vos questions plus de précisions ou plus de contexte.
-
ChatGPT peut-il être un danger ?
Si en 2019, OpenAI renonce à rendre public GPT-2, par peur de fake news ou de dérives, en 2022, ChatGPT est proposé au grand public, mais sous une forme « modérée ».
Cependant, on a vite fait d’observer nombre de failles et de brèches…
Or, que ce soit pour les entreprises ou les simples utilisateurs, utiliser ChatGPT comporte des risques ou en fabrique : fake news, plagiats, erreurs, etc.
La réputation d’une entreprise ou d’un journaliste, voire d’un professeur, peut vite basculer si ChatGPT est utilisé sans esprit critique !
On l’a vu : ChatGPT fabule et peut vous inventer une biographie complètement fantaisiste…
Et les droits d’auteurs ?
Peut-on dire que l’IA « crée » un contenu original : qui garantit que l’IA ne va pas recopier des bouts de phrases ou des passages entiers de textes qu’il a digérés ?
Qui est le propriétaire de ces contenus : l’utilisateur ou OpenAI ?
Les IA générant images, vidéo (Deep Fake) sont aussi en première ligne sur ce sujet…
Et l’enseignement ?
Certains étudiants ou élèves ont réussi à tricher grâce à l’agent conversationnel et les enseignants craignent de corriger ChatGPT et non le travail d’élèves... (problème récurrent depuis l’arrivée d’internet)
Une solution pointe à l’horizon : OpenAI travaillerait sur un outil permettant de détecter automatiquement si un texte ou une partie a été généré par le robot.
D’autres outils existent comme Draft & Goal ou GPTZero.
Et la cybercriminalité ?
L’IA intéresse fortement les pirates informatiques : pour générer des logiciels malveillants, malwares, faux courriers et rançongiciels, par exemple.
Le site Research Checkpoint, spécialisé en cybercriminalité, a alerté sur l’intérêt croissant des pirates russes concernant ChatGPT.
Selon certains experts, ChatGPT marque une « nouvelle ère » pour le cybercrime en facilitant le travail aux pirates peu expérimentés…
Puisqu’il suffit d’une simple description pour obtenir du code, les pirates s’en servent pour créer ou compléter des logiciels malveillants.
Petit rappel : le marché du cybercrime est estimé à 6000 milliards de dollars par an…
Et ce n’est que le début : car au plus on découvrira le potentiel de ces Intelligences Artificielles, au plus on aura droit au meilleur comme au pire concernant leurs utilisations…
Mais n’est-ce pas le propre de tout outil inventé par l’homme ? Ni plus ni moins.
Pour autant, ne soyons ni trop optimistes, ni trop défaitistes : l’IA apprend de ses erreurs et se perfectionne.
Les failles que l’on vient de détailler ne sont peut-être que des « erreurs de jeunesse », qui auront disparu d’ici quelques mois…
Et ChatGPT-4 ou 5 peuvent nous donner bien plus de questions difficiles à résoudre.
Car l’Intelligence Artificielle projette une ombre que nous redoutons tous au plus profond de nous : la machine peut-elle nous remplacer ?
Les performances bluffantes de ces IA en mode « work in progress » vont certainement pousser vers la sortie certains métiers comme autrefois la mécanisation et l’industrialisation en firent disparaitre.
Alors, qu’en est-il vraiment ? Je vous invite à lire notre dernier article consacré à l’IA et ChatGPT pour en juger…
À tout de suite.
par Edmond Kean
Plus d’articles de la catégorie
Inscrivez-vous à notre newsletter
Votre adresse électronique est uniquement utilisée pour vous envoyer les actualités du groupe Anywr. Vous pouvez à tout moment utiliser le lien de désabonnement intégré dans la newsletter.