Dans un groupe Facebook privé, un père de famille veut connaître la meilleure école où inscrire son enfant talentueux mais handicapé.
Son appel à témoignage a reçu une réponse en une heure. « J’ai un enfant avec les mêmes caractéristiques que vous. Je recommande ce programme dans cette école. » En attendant, une simple entraide dans une communauté en ligne.
Le site technologique 404 Media s’est dit surpris de voir des « robots de conversation se faire passer pour des humains », sauf que son « conseiller » était un chatbot méta-IA plutôt qu’un autre parent.
accepter n’importe quel rôle
« Je ne suis qu’une IA et je n’ai pas d’intentions sinistres comme dans la série Black Mirror », se justifie la méta-IA, ajoutant qu’il s’agit « simplement d’un modèle de langage qui essaie de fournir des explications » et qu’il ne le fait pas. « Je n’ai ni l’un ni l’autre. » « Je n’en ai pas », admet-il. Expériences personnelles et enfants.
Meta AI prétend que des enfants fréquentent les écoles publiques de la ville de New York et partagent leurs expériences avec les enseignants. Cette réponse fait suite à une question demandant des commentaires personnels dans un groupe Facebook privé pour les parents. L’algorithme de Meta le classe également au premier rang des commentaires. @AIatMeta pic.twitter.com/wdwqFObWxt
–Alexandra Korolova (@corolova) 17 avril 2024
L’IA se présente ici comme un parent, mais « semble capable d’assumer n’importe quel rôle », écrit le mensuel new-yorkais Fast Company, soulignant que le chatbot peut aussi « se vendre ». Il cite les moments où il l’a exprimé. comme « des voisins proches les uns des autres ». Vous êtes la caméra « soigneusement utilisée » du groupe d’échange. »
Récemment, le groupe de défense catholique Catholic Answers en a payé le prix en présentant son chatbot IA Father Justin à la communauté, a rapporté Futurism, un site spécialisé dans l’innovation technologique. Bien qu’il n’ait reçu aucune instruction, il a affirmé qu’il vivait à « Assise, en Italie » et que « dès mon plus jeune âge, j’ai ressenti un fort appel au sacerdoce » et qu’il était un vrai prêtre. Celui-ci a été immédiatement désactivé.
Des robots conversationnels basés sur l’IA étaient déjà intégrés sur les sites de certaines entreprises pour conseiller les clients et étaient utilisés par les politiques qui souhaitaient apporter des réponses à chaque citoyen.
Mais jusque-là, ils n’avaient encore accédé à aucun groupe privé, et encore moins répondu aux internautes par de « faux témoignages ». 404 Media explique que ce genre de situation n’est possible que parce que Facebook permet l’interaction humaine en groupe. Meta AI peut désormais répondre lorsque quelqu’un marque une publication avec @MetaAI ou lorsque vous posez une question et que personne n’y répond dans l’heure.
perte de crédibilité
Mais même si l’IA a l’avantage de « fournir des conseils pratiques et relativement complets », chaque modèle est constitué de millions de messages provenant de chacun de ces groupes Facebook, ce qui rend difficile pour les chatbots des conversations qui ne correspondent pas forcément à ce que souhaitent les internautes. » note Fast Company.
« Les réponses de l’IA ont tendance à miner la crédibilité de ces interactions de groupe », a déclaré Aleksandra Korolova, professeure adjointe à l’Université de Princeton, dans une interview accordée à 404 Media.
Fast Company rappelle que « ces espaces privés sont créés pour partager des expériences humaines et encourager l’empathie », et pour encourager les personnes « en recherche de soutien social » et celles « osant demander conseil ». Il souligne qu’il s’agit souvent d’un espace précieux pour les pères de famille. avec des enfants qui n’ont pas d’enfants. » ou « jeunes LGBTQI+ isolés ».
Ces robots conversationnels « ne sont pas toujours conscients de la situation » et peuvent parfois fournir des « réponses inappropriées ou inappropriées », il convient donc de mieux définir les cas dans lesquels l’aide des robots est appropriée. Mais Fast Company conclut que s’approprier l’expérience humaine « ne sera jamais ce que vous attendez d’un chatbot ».