Le défi que présente l’intelligence artificielle est de faire passer la société d’une société axée sur les données à une société axée sur les valeurs.

26 Février 2023 | St. Albans, Hertfordshire, Angleterre | Vanesa Pizzuto, Actualités de la Division Transeuropéenne

Au cours d’une récente formation à laquelle j’ai assisté sur la gestion de crise, notre instructeur – un passionné dans l’âme de l’intelligence artificielle (I.A.) – a passé un temps incalculable à faire l’éloge de ChatGPT.

Ne voulant pas admettre que je n’avais aucune idée de ce à quoi il faisait référence, j’ai cherché discrètement sur mon téléphone. ChatGPT, (Chat Generative Pre-trained Transformer,) est essentiellement un chatbot (robot de discussion), un logiciel utilisé pour les conversations des forums de discussion en ligne, alimenté par l’I.A. et conçu par OpenAI, un laboratoire de recherche en Californie, aux États-Unis.

Vous connaissez ces discussions automatisées souvent frustrantes dans les services à la clientèle ? Ils sont gérés par des robots de discussion plus anciens – essentiellement, par les arrière-grands-parents de ChatGPT. Maintenant, imaginez ceci : plutôt qu’une immense frustration, le chatbot vous apporte des réponses étonnamment humaines à n’importe quelle question. C’est ça ChatGPT.

Mais il y a plus ! ChatGPT peut écrire des programmes informatiques et composer de la musique. Il peut même écrire des essais et de la poésie. Pour démontrer à la fois sa simplicité d’utilisation et ses résultats puissants, notre instructeur nous a fait une démonstration. Tout ce qu’il a eu à faire, c’est de connecter ChatGPT à Google Forms et de lui demander d’écrire l’index d’un document sur la « Gestion de Crise » ainsi que quelques paragraphes. Après quelques secondes d’attente, voilà ! Devant nous se trouvait un texte remarquablement cohérent et précis.

Après avoir ramassé ma mâchoire sur le sol, j’ai demandé ce que n’importe quel auteur digne de ce nom aurait demandé : « Qu’en est-il des droits d’auteur ? » Après tout, ChatGPT a été formé à l’aide d’une quantité massive de données provenant d’Internet (570 gigaoctets de texte, pour être précis), dont certaines portions sont protégées par les droits d’auteur. Il s’avère qu’on se retrouve ici dans une sorte de zone grise. À l’heure actuelle, on ne peut pas dire avec certitude si ChatGPT modifie suffisamment les œuvres originales pour éviter les violations du droit d’auteur (et si c’est le cas, si cela constitue une véritable création ou simplement un « blanchiment de droit d’auteur »). Ce qui est clair, c’est qu’OpenAI n’est pas responsable des dommages. ¹ Donc, si les utilisateurs sont confrontés à un procès, ils se retrouvent en fait seuls.

Mis à part les implications en matière de droit d’auteur, une chose est sûre : avec Google qui publie également son propre chatbot nommé Bard, l’I.A. fait désormais plus que jamais partie de notre vie quotidienne.

Quelques implications pour l’éducation

Presque tout le monde dans ma famille est enseignant. Donc, sans surprise, une fois la formation terminée, mon esprit s’est tourné vers les implications pour l’éducation. J’ai décroché le téléphone, j’ai appelé ma sœur jumelle, Inés, qui est directrice d’une école bilingue en Argentine.

Nous avons parlé pendant un moment de la façon dont l’I.A. obligera les établissements d’enseignement à repenser la notion de plagiat. Mais bientôt nous sommes allés plus en profondeur, et discuté des critères d’évaluation et des objectifs fondamentaux de l’éducation.

« Je pense que les développements en matière d’I.A. nous obligeront à nous concentrer encore plus sur la littératie émotionnelle et la pensée critique, » a déclaré ma sœur. « À une époque où un ordinateur peut vous donner une réponse en une nanoseconde, nous devons mettre l’accent sur le discernement, et non sur la régurgitation de contenu. »

Outre le potentiel de malhonnêteté universitaire², l’une des craintes concernant la technologie de type ChatGPT est qu’elle sera utilisée pour générer des quantités massives de fausses informations. « Au lieu d’une information fausse au sujet d’une élection présumée volée, quelqu’un pourrait rapidement générer de nombreuses informations uniques et les distribuer sur les réseaux sociaux pour donner l’impression que différentes personnes écrivent ces articles, » a déclaré Ulises Mejias, professeur de communication à l’Université d’État d’Oswego à New York et co-auteur de The Costs of Connection.³

Qu’en est-il de l’église ?

En tant qu’église, nous avons souvent adopté l’approche simpliste consistant à diaboliser les nouvelles technologies lorsque nous nous sommes trouvés face à des scenarios complexes comme celui-ci. Je crois que c’est une terrible erreur. Non seulement une telle technologie ne va pas disparaître (peu importe à quel point nous enfouissons nos têtes dans le sable), mais aussi, plus nous repoussons le moment de nous impliquer, plus nous sommes vulnérables aux abus potentiels et moins nous serons capables d’avoir un impact positif sur la société. Après tout, à moins que le sel ne se mélange à la nourriture, il ne peut pas lui donner de saveur !

« Diaboliser la technologie n’est pas la solution. Nous devons donner les moyens aux étudiants de trier les énormes quantités de données auxquelles ils sont exposés chaque jour, » a dit ma sœur. S’ils doivent profiter des avantages des nouvelles technologies et réussir à éviter leurs pièges, « les étudiants ne doivent pas terminer leur éducation formelle sans se familiariser avec des concepts tels que le parti pris algorithmique, l’éthique en matière d’I.A. et la désinformation. Nous devons leur fournir des outils pratiques. Par exemple, nous devrions tous savoir comment faire une recherche inversée d’image pour vérifier si l’image qui accompagne une publication est originale ou non.

l’A.I. Compatissante

La compassion n’est pas un mot souvent associé à l’I.A. Mais j’espère qu’un jour ce sera le cas. Du moins, cela pourrait l’être si nous commencions à enseigner la littératie et l’éthique en matière d’I.A. Nous pouvons garantir que les évolutions de l’I.A. comme dans ChatGPT, améliorent considérablement nos vies et notre société si nous :

  • n’abdiquons pas nos droits de citoyens
  • sommes disposés à adresser un courrier aux politiciens et aux éducateurs
  • encourageons les politiques qui garantissent que les groupes minoritaires sont pris en compte lorsque les données sont utilisées pour former des algorithmes
  • mettons à jour les lois sur les droits d’auteur
  • exigeons que la compassion et la sécurité soient intégrées dès la conception, dès les premières étapes du développement de l’I.A.

L’I.A. compatissante est non seulement possible, comme le montrent des initiatives comme Deep Empathy et Cogito, mais elle est aussi absolument nécessaire. Parce que, comme le souligne judicieusement Amit Ray, scientifique et auteur spécialiste de l’I.A., « le véritable défi est de savoir comment numériser et intégrer les valeurs humaines telles que la compassion, le pardon, la bravoure, la moralité, l’amour et la créativité dans les systèmes basés sur l’I.A. » 4

J’ai demandé à ChatGPT comment nous pourrions nous assurer que l’I.A. soit utilisée pour le plus grand bien de l’humanité. Voici sa réponse :

S’assurer que l’I.A. soit utilisée pour le plus grand bien de l’humanité nécessite une combinaison d’approches techniques, juridiques et éthiques.

Voici quelques étapes qui peuvent vous aider :

Élaborer des lignes directrices éthiques : des lignes directrices éthiques devraient être établies pour guider le développement et le déploiement des systèmes d’I.A., en veillant à ce qu’elles soient en phase avec les valeurs humaines et qu’elles respectent les droits de l’homme. Ces lignes directrices devraient aborder des questions telles que la confidentialité, la responsabilité, la transparence et l’équité.

Garantir la transparence : les systèmes d’I.A. doivent être transparents et explicables, afin que leurs décisions puissent être comprises et évaluées par les personnes qui sont affectées par elle. Cela contribuera à renforcer la confiance dans la technologie et à garantir qu’elle sera utilisée de manière responsable et éthique.

Promouvoir la diversité et l’inclusivité : les systèmes d’I.A. devraient être conçus et déployés de manière inclusive et refléter la diversité de la société. Cela contribuera à garantir que la technologie ne perpétue pas les préjugés et la discrimination qui existent.

Établir des cadres juridiques et réglementaires : les gouvernements devraient établir des cadres juridiques et réglementaires qui régissent l’utilisation de l’I.A. et protègent les droits et les intérêts des citoyens. Ces cadres devraient assurer que les systèmes d’I.A. et leurs concepteurs rendent des comptes pour leurs actions et garantir qu’ils soient utilisés de manière responsable.

Encourager la participation et le dialogue du public : il devrait y avoir une implication et un dialogue continus avec le public sur le développement et le déploiement de l’I.A., afin de garantir que la technologie soit utilisée d’une manière qui soit dans l’intérêt public.

En prenant ces mesures, nous pouvons nous assurer que l’I.A. soit utilisée pour le plus grand bien de l’humanité et que tous les membres de la société bénéficient de ses avantages.

La version originale de cet article a été publiée sur le site d’informations de la Division Trans-Européenne.

Traduction: Patrick Luciathe

Top news

ADRA prépare des interventions de secours suite au tremblement de terre qui a frappé le Vanuatu
Un festival du film au Venezuela montre des progrès constants et des moyens efficaces d’exalter Jésus
L’aumônier du Sénat américain Barry Black se remet d’une hémorragie cérébrale