Richard B-Blog

IA et nudge, pour un marketing de confiance

Science des données et sciences humaines doivent
avoir le même objectif : faire proposer par les marques
des services intelligents. L’éthique de l’incitation
douce y participe.

Photo credit: MattHurst on Visualhunt.com / CC BY-SA

Entretien avec Jean-Watin Augouard : https://www.ilec.asso.fr/

Numéro spécial Intelligence Artificielle et Marketing


L’intelligence artificielle peut-elle être utile aux nudges ?


Richard Bordenave : J’ai envie de renverser la proposition. L’IA
permet une réponse adaptée en fonction des comportements
passés, parce qu’elle se nourrit de données comportementales.
Mais pousser un message ultraciblé n’en fait pas un nudge. Un
nudge est une manière subtile d’aider un « intentionniste » à
accomplir ses propres buts, en créant un environnement de choix
favorable. C’est une incitation douce. Demain, votre voiture
pourra vous suggérer de faire une pause, votre réfrigérateur
de jeter votre lait périmé, votre téléphone de rappeler votre
docteur… Mais ces alertes sont surtout de nature normative,
elles se résument à activer de la saillance pour contrer des biais
de fatigue attentionnelle. Cette profusion de notifications et de
sonneries risque bientôt de devenir cacophonie, affaiblissant leur
efficacité.
Les travaux de BVA prouvent que les nudges les plus efficaces ne
se résument ni à de l’alerte, ni aux interfaces digitales. Même avec
un ciblage en ligne piloté par une IA, pour que le message soit
efficace il faut qu’il engage vers l’action. Or pour concevoir un
message, ou plutôt un environnement incitatif, il faut s’appuyer
sur la connaissance des drivers comportementaux des clients.
C’est là que l’économie comportementale vient au secours de
l’IA ; elle recontextualise les comportements observés, en aidant à
décoder ce dont ils résultent : les freins et moteurs psychologiques
des individus et l’influence de leur environnement. Pour faire
simple : l’IA cible, et le nudge transforme.


Est-ce qu’un marketing fondé sur la personnalisation par traitement
automatisé laisse une place au marketing sociétal et au nudge ?


R. B. : Oui. S’il est responsable, le marketing doit agir
positivement pour le client et pour l’entreprise. Par exemple, la
connaissance digitale du comportement des parieurs en ligne ou
des fans de jeux vidéo permet de cibler les nudges de prévention
contre les risques d’addiction. La connaissance du comportement
des sportifs, d’encourager leurs progrès (Nike). Celle des élèves,
de favoriser leur apprentissage (Duolingo). Le danger de la
personnalisation est de multiplier les messages mal conçus, alors
que l’automatisation permet d’arroser plus vite plus de monde.
Or un marketing centré sur ses propres objectifs, sans réelle
empathie relationnelle ni souci du service distinctif, est voué à
l’échec. Attention donc : l’écume des données et de la probabilité
d’un comportement ne donnent pas une compréhension intime
des clients.


Comment font des algorithmes pour construire une « architecture de
choix » dans l’esprit vertueux du nudge ?

R. B. : Ce sont les hommes qui conçoivent les algorithmes,
par la sélection des données d’entraînement et le fait qu’elles
sont en grande partie comportementales. Ce sont donc les biais
humains contenus dans les données choisies et l’éthique des
concepteurs qu’il faut interroger. Si la finalité de l’algorithme
est d’aider l’utilisateur avec des recommandations pertinentes, et
que son retour est positif, la boucle est vertueuse. Si l’algorithme
est programmé pour réduire le choix, en fonction du profil de
l’acheteur (et non de ses goûts), ou pour ajuster le prix en fonction
de son parcours précédent (au lieu d’un tarif applicable à tous), il
contrevient à l’éthique du nudge (transparence, équité et liberté
de choix).
Ces règles devraient d’ailleurs s’appliquer à l’éthique relationnelle
de la marque. Car les clients ne sont pas dupes : en tirant un
bénéfice des informations détenues sur eux à leurs dépens,
le marketing crée le terreau de la défiance. On en a tous fait
l’expérience, avec le billet d’avion devenu plus cher quand
on revient sur le site. L’algorithme qui fait monter les prix de
votre course en VTC parce qu’il a détecté que votre batterie de
téléphone est presque vide agit comme un maître-chanteur.
L’IA peut influencer les comportements pour le meilleur et
pour le pire. La réflexion éthique et la connaissance des facteurs
humains (biais cognitifs, facteurs émotionnels ou sociaux…) à
l’œuvre dans la vraie vie deviendront critiques pour les marques.
Et je crois aux « IA gendarmes », pour contrer les « IA voleurs ».
L’algorithme des uns pourra contrôler si les comportements
mesurés par les autres sont réels, les emplacements fréquentables,
les commentaires authentiques, etc.
Pour les marques, le piège majeur est la convergence, par
réduction de la connaissance du client à une somme de
préférences immédiates portées par les données des plateformes.
À force de courir le même client aux attentes modélisées par
ces données, les marques finissent par toutes raconter la même
chose. Or l’essence d’une marque est la singularité. Il faudra
donc chercher l’inspiration ailleurs que dans les données.

Le marketing aspire-t-il à disposer d’une « IA forte » ou « générale » ?

R. B. : Nous n’y sommes pas. Car l’IA, pour apprendre, a besoin
de montagnes de données, alors que l’humain navigue assez bien
en environnement changeant. Côté marketing, je crois que plus
l’IA progressera, plus elle offrira de possibilités de services, pour
nos métiers ou pour les clients. Nous travaillons beaucoup sur
les enjeux du conversationnel : au-delà de la mode des assistants
vocaux, la question est d’aider les marques à devenir de véritables
services intelligents. Ajouter un canal transactionnel, ou
remplacer les humains, c’est au mieux ajouter de la complexité
technique irritante, au pis des problèmes d’acceptabilité sociale.
Pour prendre le problème dans le bon sens, il faut partir de la vie
du client et identifier quels services une marque peut lui rendre.
C’est justement notre métier et la raison pour laquelle je suis
confiant en notre avenir.