01/06/2024
L'IA et notre immortalité
(Photo- Nice, la Promenade du Paillon)
Au début des années 1990, Internet venait d’entrer en France, et ma première connexion a eu lieu à la Faculté des Sciences de l’Université de Nice, en 1995. Je recherchais des adresses pour envoyer une candidature spontanée, après avoir soutenu ma Thèse. Tout mon travail de recherche s’était fait le stylo à la main, et en lisant des ouvrages bien réels, dans des bibliothèques. J’avais tapé seule mes 450 pages sur un Mac Intosh que des amis m’avaient prêté, en m’auto-formant ainsi dans le traitement de texte. Mon intérêt de base pour les sciences de la littérature a évolué vers des domaines connexes, la compréhension du cerveau et des émotions, des comportements. J’ai la chance d’avoir été témoin des bouleversements scientifiques des dernières décennies, dont l’arrivée de l’IA, et, j’avoue, un témoin enthousiaste. Cette note de juin (le mois anniversaire de ma Thèse) présente quelques idées du récent livre du Docteur Laurent Alexandre sur une IA (ChatGPT) qui transformera l’humanité en une technologie de l’information et nous rendra immortels.
14:46 Publié dans Compétences émotionnelles/Emotional Intelligence, Ingénierie/Engineering, Livre, Philosophie/Psychologie, Public ciblé/Targets, Science | Tags : ia, chatgpt, livre, laurent alexandre | Lien permanent | Commentaires (2)
01/04/2023
Intelligence humaine vs Intelligence artificielle
(Photo- Magnolia à Nice)
Une simple recherche sur Google nous apprend que ChatGPT (Generated Pretrained Transformer) est une application de l’Open AI, entreprise spécialisée dans le raisonnement artificiel, et qu’elle est issue en novembre 2022. Il existe la version 3 et bientôt 4. Il s’agit d’un modèle de langage de pointe qui peut générer du texte de manière autonome en utilisant des algorithmes d’apprentissage automatique, à savoir des résumés, des traductions automatiques ou de la reconnaissance de la langue. Néanmoins, elle n’est pas infaillible, elle peut générer des erreurs, des informations incomplètes ou fausses, des réponses imprécises. Plusieurs articles de presse en ont parlé. Par exemple, l’application a été utilisée pour poser un diagnostic médical, or les informations et les données introduites n’ont pas suffi pour que le diagnostic soit correct, il fallait savoir interpréter certaines données dans un contexte spécifique, personnel, ce que seul un médecin humain pouvait faire. Bien entendu, il n’y a pas que le ChatGPT, il y a d’autres IA dans le monde, qui mentent, qui font du plagiat, ou qui hallucinent. Il ne faudra surtout pas sous-estimer le danger des IA utilisées par les cybercriminels : des contenus qui désinforment, des images fausses, générées par l’ordinateur, des publics manipulés.
08:00 Publié dans Blog, Compétences émotionnelles/Emotional Intelligence, Conseil/Consultancy, Management/Marketing, Philosophie/Psychologie, Rick Hanson en français, Science | Tags : cerveau, ia, conscience, éthique | Lien permanent | Commentaires (2)