Doctoir

Doctoir

DOCTOIR

Miroir qui analyse l’état de santé d’une personne

Le doctoir est un miroir équipé d’une caméra et de capteurs. Il utilise les technologies de reconnaissance faciale pour faire une analyse d’un visage.

Quand une personne se poste quelques secondes devant ce miroir, la machine détecte son rythme cardiaque, sa densité d’oxygène dans le sang, sa pression sanguine, sa température… Avec ce balayage du visage, elle est capable de déterminer si elle a pris du poids, fumé ou bu récemment ou encore si elle est stressée.

À partir de ces données, une intelligence artificielle détermine si l’individu a ou pas un problème de santé.

  • Outre la détection d’un problème de santé, le doctoir peut aussi :
  • Suivre l’évolution d’une maladie et donc renseigner le médecin.
  • Prodiguer des conseils santé. Il supervise par exemple le brossage des dents.
  • Montrer l’évolution du corps : visualisation des opérations de chirurgie esthétique, vieillissement…

Si le doctoir a une priorité santé, il peut aussi donner des conseils de maquillage, fournir des actualités, diffuser des vidéos….

Mot-valise composé de docteur et miroir.
Attention. Ce mot laisse supposer qu’un toubib est enfermé dans le miroir. Comme un outil de prévention, il faut peut-être envisager un autre mot. A vos propositions.

13 + 8 =

Robert, faut-il investir dans un doctoir ?

Oui

Coup d’œil au miroir, faites-le réfléchir en lui posant la question : « Miroir, ô beau miroir, suis-je la personne la plus en forme en ce bas monde ? ». Le doctoir peut, outre vous rassurer sur votre état de santé, anticiper et régler les petits dysfonctionnements de votre corps. Vous pourrez donc avoir une santé de fer sans pour autant craindre de rouiller.

Non

Sous prétexte de prévention, le doctoir risque de vous faire perdre l’insouciante illusion d’être en bonne santé. Outre ruiner votre santé, il va créer des générations d’hypocondriaques.

Avant d’investir dans ce miroir connecté, prenez le temps de vous demander : est-ce qu’il vaut mieux conforter chaque jour ses craintes d’être malade ou être heureux en ignorant que l’on peut l’être ?

Des miroirs réfléchissent

Le Conseil national de recherche d’Italie a lancé « Wize Mirror » sur lequel travaillent des chercheurs de onze pays européens. Cette glace intelligente doit faciliter le vie des personnes diabétiques ou cardiaques. Sous son apparence de miroir classique, le Wize Mirror dispose de capteurs 3D, de caméras multi spectrales et autres senseurs qui détectent la pâleur du visage, la graisse de ses tissus ou encore les expressions faciales. Il attribue une note à chaque personne et lui prodigue des conseils pour la journée à venir.

La société française CareOS propose un miroir capable de donner des de b, diffuser des vidéos, aider à parfaire sa coupe de cheveux, rendre compte du vieillissement de la peau, de sa prise de poids, suivre l’évolution des grains de beauté ou encore de renseigner sur la consommation d’eau pour chaque membre du foyer.

 

 

Au concours Lépine 2017, la médaille d’argent en catégorie Santé est allée à Évidence, un miroir qui aide à la rééducation des personnes ayant perdu une grosse partie de leur mobilité. Quand le miroir renvoie l’image de la personne, il s’ajoute des points et des lignes soulignant les zones du corps qui ont été rééduquées.

 

 

La pose d’implants mammaires permet d’augmenter artificiellement la taille de la poitrine chez les femmes qui jugent leurs seins trop petits. Il leur est cependant difficile de se projeter et de choisir la taille de bonnet qui leur plaira. Le miroir en réalité augmentée mis au point pour la polyclinique de Cesson-Sévigné en Bretagne permet de visualiser facilement le résultat avec différentes tailles d’implants.

 

Facionymat

Facionymat

FACIONYMAT

Loi garantissant l’anonymat des visages et leur non-identification par les technologies.

Dans la rue, dans les commerces, sur Internet, des caméras captent les visages. Grâce à des ’intelligences artificielles, les personnes sont identifiées et des liens sont faits avec toutes leurs activités.

Ces banques de visages sont exploitées par la police, le marketing, les gouvernements.

Cette surveillance omniprésente porte atteinte à la liberté d’aller et venir anonymement. Nombreux organismes demandent le facionymat ou une loi garantissant l’anonymat.

 
 

Facionymat : mot-valise composé de face et d’anonymat.
Sa composition indique que les individus exigent de pouvoir se déplacer de manière anonyme.

Robert, comment fonctionne la reconnaissance faciale ?

Le premier temps est de constituer des banques de visages identifiés.
On a des visages identifiés par de multiples sources. Quelques exemples :
Services publics : photos des divers documents officiels.
Réseaux sociaux : les photos de profil, les selfies, les challenges…,
Logiciels de traitement de photos.
Accès à un service par identification biométrique : téléphones, portes…
Des visages peuvent aussi être reconstitués à partir de l’ADN.

Les visages étant identifiés, un lien est créé avec toutes les activités numériques de l’utilisateur : réseaux sociaux, déplacements, achats, recherches…

Grâce à des caméras installés dans la rue, les commerces, les lieux publics, on peut

Prévenir les crimes

Les criminels sont repérés en une fraction de seconde. On repère leurs déplacements avant qu’ils commettent leurs délits. Pour que le système fonctionne, il faut multiplier les caméras et considérer que le maximum de personnes soit présumé coupable !

Traquer le consommateur

Dans le métro, la rue, un magasin, le piéton devient un consommateur potentiel. Les marchands l’identifient pour lui proposer les produits et services. Le marketing devient du harcèlement.

Surveiller tout le monde

Cette technologie offre aux gouvernements la capacité de savoir qui nous sommes, où nous allons, ce que nous faisons et qui nous fréquentons. Il peut profiter de ces informations pour organiser une dictature numérique.

Détecter des maladies et émotions

L’analyse du visage permet d’identifier des émotions et repérer certaines maladies. Cette capacité peut être utilisée pour le pire comme le meilleur.

 

Petits futurs quotidiens de la reconnaissance faciale

Vous avez participé il y a quelques années au challenge Facebook « 10 ans ». Depuis, on vous présente chaque matin votre visage dans 10, 20, 30 ans afin de vous inciter à investir dans des traitements anti-vieillissement.


 

Vous êtes dans le métro avec votre compagne. Une inconnue vous prend en photo et vous envoie un message indiquant le degré de compatibilité amoureuse avec elle.

À cause d’une photo prise en soirée et postée sur un réseau social, l’assurance vous soupçonne d’alcoolisme.Sous prétexte de soigner les futurs dégâts, vous devez désormais lui verser 10 % sur chaque bouteille achetée. Le paiement s’effectuant par reconnaissance faciale, le prélèvement est automatique.

 

 

Vous voulez aller manifester contre la politique du gouvernement. Une caméra ayant détecté votre sensibilité politique, vous ne pouvez pas acheter de titre de transport.

Vous revenez en métro. Grippé avec une fièvre de cheval, vous êtes dans l’incapacité de laisser votre place à un homme d’un certain âge. Un voyageur vous prend en photo. Dans la seconde, vous recevez un malus d’incivilité. 

Vous adorez les nus de Rubens. Quand vous vous promenez à Pigalle, tous les vendeurs vous interpellent par votre prénom pour inviter à découvrir des nus moins figés. 


 

 

À cause de votre peau un peu foncée, le logiciel vous a identifié comme un braqueur. Même pour acheter une baguette de pain, il faut que vous justifiiez de votre identité.

Fini le CV, pour le recrutement l’envoi d’une photo suffit. Si vous avez participé à une manifestation contre la reconnaissance faciale, ne vous étonnez pas d’être refusé par toutes les entreprises. 

Quand vous allez au supermarché, vous devez suivre un parcours optimisé adapté à vos habitudes de consommation. Quand vous vous éloignez, on vous signale que vous perdez votre temps.

Vous rentrez tard chez vous. Vous êtes fatigué, vous avez un peu abusé de substances toxiques. La porte ne s’ouvre pas. La serrure à reconnaissance faciale ne vous reconnaît pas.

Grâce aux caméras installées partout dans la ville, votre femme vous suit à distance. Vous évitez de déjeuner avec des collègues femmes pour ne pas subir ses longs interrogatoires.

En soirée, plus besoin de se présenter, tout le monde photo-identifie tout le monde. Comme votre start-up cartonne, il y a toujours un lourdaud aviné qui veut se faire embaucher. 


Vous avez essayé sans acheter des lunettes dans une boutique. Depuis, chaque jour, le magasin vous envoie votre visage avec un nouveau modèle.

Vous traversez en dehors des clous. Votre image s’affiche sur un grand écran. Les témoins évaluent la gravité de votre délit. L’amende dépend de leurs notes.

Vous passez la frontière. Parce que vous n’avez pas laissé votre place dans le métro et que vous avez traversé en dehors des clous, vous devez subir un interrogatoire. Gare aux mensonges, la reconnaissance faciale les détecte.

A VOTRE TOUR D’IMAGINER DES SCÉNARIOS

8 + 10 =

Les banques de visages

En 2017, ­Amazon a lancé Rekognition, un service de reconnaissance d’images permettant d’identifier des personnes. L’entreprise a stocké de dizaines de millions de visages. La police américaine utilise cette application dans plusieurs États. En prime, Amazon Rekognition détecte l’état de bonheur, de tristesse ou de surprise à partir d’images faciales.

La société californienne FaceFirst vend un système de reconnaissance faciale permettant aux grandes surfaces de reconnaître leurs clients fidèles et repérer les voleurs jusque sur le trottoir.

Facebook engage chaque jour les internautes à taguer les photos qu’ils publient avec les noms de leurs amis. Grâce à DeepFace, son système de reconnaissance faciale, l’entreprise dispose d’une gigantesque banque de visages identifiables. 
Le « 10 Years Challenge », un défi où les utilisateurs comparent leurs photos de 2009 et de 2019 entraîne leurs algorithmes de reconnaissance faciale au processus de vieillissement.

Encore plus loin

Parabon NanoLabs, une entreprise de Virginie, utilise un échantillon d’ADN pour fournir une photo d’un individu. L’image comprend la couleur des yeux, de la peau, des cheveux, la morphologie du visage et l’ascendance biogéographique. L’entreprise travaille régulièrement avec les services de police aux États-Unis et au Canada. De nombreuses autres entreprises travaillent sur le portrait-robot ADN.

Du contrôle Déjà effectif

En Chine, à Shenzhen, le visage et l’identité des piétons qui traversent en dehors des feux s’affichent sur un écran géant. Ils s’effacent quand ils ont payé une amende au commissariat.

Des dizaines de coureurs de marathon prennent des raccourcis et se font remplacer. L’état chinois a choisi de traquer les participants avec la reconnaissance faciale.

 

La nécessité d’une loi

On devrait pouvoir marcher dans la rue sans craindre que des entreprises dont on n’a jamais entendu parler enregistrent chacun de nos mouvements et les identifient avec nos noms.
La demande des associations de consommateurs américains

 

Nous exhibions sans peur notre visage en public parce que nous avions l’habitude d’y conserver un anonymat suffisant : dans la rue, nous ne pouvons pas identifier tous les passants ; nous y sommes plus ou moins incognito. Aujourd’hui, cette part d’obscurité est menacée par la vidéo. Assistée par l’intelligence artificielle, elle développe une capacité mémorielle supérieure à celle des humains, tout en stockant visages et données personnelles.
Woodrow Hartzog, Samford (Alabama) et Evan Selinger,’Institut de technologie de Rochester

Il est désormais possible de repérer et de cibler des migrants, des minorités religieuses et des personnes de couleur. (…) Dans un monde de surveillance fondé sur la reconnaissance faciale, les gens craindront d’être repérés et ciblés par le gouvernement s’ils participent à une manifestation, se rassemblent hors des lieux de culte, ou simplement vivent leur vie.

Mardi 15 janvier 2019, quatre-vingt-cinq organisations non gouvernementales (ONG) américaines ont adressé trois lettres à Amazon, Microsoft et Google en leur demandant de s’engager à ne pas mettre leurs technologies de reconnaissance faciale à disposition des gouvernements.

TYRANOTAGE

TYRANOTAGE

TYRANOTAGE

Tyrannie exercée par la notation permanente de toutes les activités et services.

Grâce aux technologies permettant de recueillir des données et d’effectuer des moyennes, la notation s’est répandue.

Buzzers, applications, étoiles sur des sites… En un geste simple, on note désormais son livreur, la chambre d’hôte, la propreté des toilettes, la qualité d’un repas, les prestations de son médecin ou de ses profs, sa palpitante conversation avec un service après-vente… En mettant des étoiles ou en choisissant une couleur, tout le monde donne son avis sur tout.

Ces chiffres étant supposés fournir une information sûre et objective, l’objectif avoué de cette notation est d’améliorer un service.

Cette anodine notation a néanmoins des effets pervers : elle peut empêcher des personnes de travailler, ruiner une carrière ou mettre en péril la santé d’une entreprise. Cette tyrannie exercée par la note est nommée tyranotage.

Tyranotage est mot-valise composé de tyran et notation.
On imagine que des tyrans peuvent utiliser la notation pour augmenter leur oppression.
Si Attila l’avait ajouté au menu de ses tortures raffinées, ce cannibale aurait pu faire noter les personnes les meilleures à consommer. Cela aura peut-être pu épargner ses deux fils.
Adolphe Hitler aurait encore plus de sang sur les mains en faisant noter ceux qui, outre être juifs ou homosexuels, méritaient de partir dans des camps de la mort

 
 

Robert, quels sont les effets pervers des dispositifs de notation ?

Voulant être bien noté, je les définirais en 5 mots.

Confusion

En mettant ses étoiles, l’humain est dans le trou noir. Sans s’en rendre compte, il note de plus en plus mes individus et non le service proposé. Un chauffeur Uber et le conducteur Blabla pourront être d’excellents chauffeurs, avoir effectué le trajet dans les temps et recevoir une mauvaise note. Il suffira pour cela qu’ils aient eu des propos qui dérangent le client.

Simplification

Pour permettre une notation et faire croire à un caractère objectif de l’évaluation, on détaille des prestations en des entités mesurables. On ne note pas ce qui est important, mais ce qui est quantifiable. Par exemple, sur Airbnb on ne note pas la qualité de l’accueil, mais son aspect technique. Si le propriétaire vous accueille chaleureusement, mais que l’appartement est au sixième et que l’ascenseur de son immeuble est en panne, la note risque fortement d’être mauvaise.

Focalisation

L’objectif premier devient d’avoir une bonne note. Les vendeurs de services mettent en place des stratagèmes pour atteindre cet objectif.
Le restaurateur distribue des shots d’alcool fort pour faire oublier la médiocrité de la nourriture et du service. Le propriétaire Airbnb ne perd pas son temps à échanger avec ses hôtes étrangers, il laisse une bouteille d’un grand cru bien ordinaire.
Dans les formations, des intervenants font applaudir les participants avant de distribuer les feuilles de notation,
Cette quantification s’accompagne d’astuces pour les contourner. Les hôpitaux britanniques avaient décidé de pénaliser les services dont les temps d’attente aux urgences étaient supérieurs à 4 heures. La plupart des hôpitaux avaient résolu le problème en faisant attendre les ambulances et leurs patients en dehors de l’hôpital !

En résumé, comme le précise la loi de Goodhart : « Lorsqu’une mesure devient un objectif, elle cesse d’être une bonne mesure. »

Transformation

La notation transforme le client en juge. Le client joue les espions et devient un arbitre sans le savoir. Il ne prend pas conscience, comme l’explique Blanche Gardin, qu’en buzzant dans les toilettes d’un aéroport, il a le pouvoir sur le vie des employés.
Des clients en profitent. Ils menacent les restaurateurs et les responsables d’hôtels de mal les noter s’ils ne les surclassent pas ou ne leur accordent pas ce qu’ils désirent.

L’innovation pouvant déranger des clients, les prestataires de services ne prennent pas le risque de le faire. Ils privilégient ce qui marche à tous changements et évolutions permettant d’améliorer l’existant.

Robert, quels sont les risques annoncés de cette notation tous azimuts ?

On va noter n’importe quoi. Ces notes serviront à justifier des décisions graves.

On note le chauffeur Uber qui, de ce fait, peut se retrouver suspendu pendant quelques jours.
Dans l’élan, on peut noter la sympathie de ses voisins, le sourire de la caissière, le look vestimentaire de ses profs, la qualité du bavardage de la coiffeuse, le parfum de l’agent de sécurité, l’élégance de la marche de l’éboueur ?

Ces notes permettront de remercier une personne. Les chiffres ne mentant pas, il n’y aura pas de recours.

On va créer des notes citoyennes

Nombreuses entreprises travaillent sur la fusion des notes d’utilisateurs entre les diverses applications. Leur objectif est de créer des notes citoyennes. Si demain, vos potentiels employeurs y ont accès, ils vous engageront (ou pas) en fonction de votre comportement dans le taxi ou votre discrétion à la maison. Si vous avez un voisin grognon, il faudra marcher sur la pointe des pieds et en pantoufle pour trouver du travail.

L’état s’emparera bien entendu de cette notation en vous fournissant des avantages (crédits à la consommation, assurances ou billets de train moins chers, meilleur accès aux soins…) ou vous pénalisera. Votre ultime but dans la vie sera donc d’avoir la meilleure note. Et si vous n’êtes pas formaté pour ce type de compétition, vous serez mis au ban de la société. Dans cette guerre des chiffres, vous aurez perdu et on ne vous calculera plus pour rien.

Ce dispositif de notation sociale est expérimenté depuis 2014 en Chine. Il va être généralisé en 2020.

Chine, le crédit social

La Chine expérimente un dispositif de crédit social. L’idée est de collecter des centaines de données sur les individus et les entreprises, depuis leur capacité à tenir leurs engagements commerciaux jusqu’à leur comportement sur les réseaux sociaux, en passant par le respect du code de la route.

À partir de ces informations, on valorise ceux qui ont un comportement exemplaire et pénalise les autres. Ceux qui manifestent des avis politiques dissidents, se comportent mal en avion, ne respectent pas un jugement du tribunal, ne traversent pas dans les clous, font des recherches en ligne jugées suspectes peuvent se voir refuser un prêt ou une location, interdits de voyages.

Expérimenté depuis 2014, ce dispositif va être généralisé en 2020. Si ce système apparaît de notre côté du monde comme une grande dystopie orwellienne, il est considéré en Chine comme un moyen pour régler les problèmes de société. 

Les nouveaux éducateurs!

Depuis des années, les chauffeurs n’ayant pas de bonnes notes se voient suspendus pendant quelques jours. En Australie et en Nouvelle-Zélande, les usagers qui ont moins de 4 étoiles (sur un total de cinq) sur leur profil seront bannis. Grand donneur de leçons, Uber veut obliger ses clients à adopter les bons comportements.

Quelques lois pour réfléchir

La loi de Campbell

Plus un indicateur quantitatif est utilisé pour la prise de décision, plus il a de chances de fausser et corrompre le processus qu’il a pour objet de surveiller.

La loi Goodhart

De l’économiste britannique Charles Goodhart : “

Quand une mesure devient la cible elle cesse d’être une bonne mesure”. Pourquoi ? Parce qu’elle finit par biaiser insidieusement les décisions que vous prenez : au lieu de mesurer pour savoir où vous en êtes et agir pour améliorer le processus, votre priorité devient d’améliorer le résultat de la mesure et non plus le processus.

Loi Shadok

Il vaut mieux noter même si le dispositif de notation est toxique que de profiter de l’absence de notation pour être intelligent.”

 Loi de Murphy 

Toute notation visant à améliorer un produit ou un service, contribuera à le dégrader.

 
 

SELPHONE

SELPHONE

SELPHONE

Téléphone permettant d’échanger avec soi-même

Le selphone est un double numérique. Il utilise les données de l’utilisateur pour entretenir une conversation de type « moi à moi ».

Il adopte la voix, la manière de parler, les mots d’une personne pour entretenir une conversation avec cette même personne.

Le selphone est nourri par toutes les données personnelles de l’utilisateur : activités et échanges effectués à partir des téléphones, ordinateurs et autre outil numérique (SMS, posts sur les réseaux sociaux, recherches sur Google et autres moteurs de recherche..) ; données santé (compteurs de pas, implants, capteurs émotionnels…) ; discussions enregistrées par les assistants conversationnels ; génomes ; rêves…
Ces informations sont traitées par une intelligence artificielle apprenante. Au fil des échanges, le double numérique adopte de plus en plus la personnalité de son propriétaire.

Le selphone vient de selfie. Il appartient à la même famille. Le selfie se concentre sur l’image de l’individu. Le selphone fait une copie de ses propos.

Quelles sont les raisons du futur succès des selphones ?

Une société du moi

Le selphone s’inscrit dans un grand mouvement d’individualisation en marche depuis des siècles. Alors que les chasseurs-cueilleurs ne vivaient qu’en tribu, les machines-outils ont contribué à la disparition des tributs au profit de la famille. Avec sa décomposition progressive, l’individu se trouve face à sa solitude. Le selphone va lui permettre de mieux la supporter. Il ne sera plus jamais seul, car il pourra toujours se parler à soi-même.

L’exploitation des data

Les entreprises ont besoin des données personnelles d’un plus grand nombre pour innover. Si elle offre des selphones, elle aura accès à toutes les données des utilisateurs.

Un riche marketing de l’ego

Les arguments pour vanter les mérites du selphone sont nombreux. Il a une capacité d’écoute et une mémoire inégalée : il se souvient de tout ce qu’on lui raconte.
L’objet peut aider à s’interroger sur ses comportements et se remettre en cause. Grâce au clonage artificiel, il va poser les bonnes questions, celles qui te titillent le cerveau comme il faut.
Cerise sur le gâteau, le selphone permettra d’accéder à l’immortalité. Les proches pourront continuer à discuter avec l’utilisateur après sa mort.

Quels sont les dangers annoncés du selphone ?

Le selfphone, accessoire suprême de l’hypermoi, ne peut que créer une société de l’hyper égoïsme.
Disposant des clones d’eux-mêmes, les hommes et les femmes auront de moins en moins envie de prendre le risque de se confronter aux autres individus. Il n’y aura plus les frottements nécessaires entre humains pour ciseler de nouvelles idées et policer nos manières de vivre. On assistera alors à un appauvrissement des réflexions et à une bestialisassions des comportements.

« Nous sommes tous en train de créer un double numérique de nous-même. Il est composé des traces que nous laissons sur Internet et des différents fichiers que des entreprises, un peu partout dans le monde, possèdent sur nous. » Jacques Henno

Réplika, une réplique de vous-même

Eugenia Kuyda, une jeune entrepreneuse russe basée à San Francisco a créé un chatbot pour supporter le décès brutal de Ronman, son meilleur ami. Grâce aux données récoltées, il était capable de mimer sa manière de communiquer.
Forte de cette expérience, elle a créé Replika, qui permet à chacun de créer son double virtuel. Il suffit de lui donner accès à vos données pour que cette application s’enrichisse au fil des conversations.
Dans une vidéo, des utilisateurs témoignent de l’effet positif de Replika. Ils racontent qu’ils s’ouvrent plus facilement à l’application qu’à leur entourage !

Thermomixage

Thermomixage

THERMOMIXAGE

Utilisation de l’intelligence artificielle pour créer un formatage culturel

Le thermomixage consiste à utiliser des intelligences artificielles pour proposer des services acceptables et acceptés standardisant les intelligences humaines.

Ils ne sont ni exceptionnels ni détestables. Ils ne sont pas moches ou beaux. Ils sont juste acceptables et acceptés, car conçus pour standardiser les intelligences humaines.

On assiste à du thermomixage lorsque les IA sont utilisées pour :

Aiguiller les choix culturels

Sur les plateformes de musiques, des algorithmes effectuent des listes personnalisées en fonction de multiples paramètres. En règle générale, ces choix musicaux sont appréciés par les auditeurs, qui finissent par écouter le même type de musique.

Le même principe est adopté pour les films. Si on regarde deux comédies, l’algorithme déduit qu’on adore les comédies. Il ne va donc pas vous proposer des films d’horreur. 80 % des contenus regardés sur Netflix découlent du système de recommandations.

 

Informer de manière partiale

Sur les réseaux sociaux, Facebook en tête, les informations choisies confortent les a priori. Celles venant de personnes ayant des avis opposés n’apparaissent jamais. On finit par l’impression que tout le monde partage sa vision du monde.

 

Orienter les recherches des utilisateurs

Lors d’une recherche sur Google, vous écrivez un mot, voire un début de mot, qui est immédiatement associé à d’autres. L’algorithme se base sur les recherches du moment. Si vous mettez le mor « gilet », il ajoutera jaune et ne vous proposera spontanément de vous renseigner sur les gilets de sauvetage fournis par les migrants. Sous prétexte de vous simplifier la vie, les algorithmes dirigent les choix.

 

Standardiser les manières de s’exprimer

Ok Google, met de la musique… Alexa, plus fort… Ok, robinet, eau chaude… Ok, porte ouvre-toi.. Ok, stop… Ok, voiture avance. Ok, plus vite… À force de parler aux machines en donnant des ordres, la machine va progressivement modifier notre manière de parler.Des enfants commencent à parler ainsi à leurs proches.

On peut assister à du thermomixage dans le recrutement. Les IA s’efforcent de recruter des personnes ayant les mêmes caractéristiques que les personnes à remplacer.

Le thermomix est un robot de cuisine. Contrairement aux robots traditionnels, il n’assiste pas le cuisinier en coupant les légumes, faisant monter les blancs en neige, mixant la soupe. Il prend les rênes de la cuisine. L’utilisateur choisit une recette et est guidé pas-à-pas. Il est l’apprenti de la machine. Il met les ingrédients dans la machine qui s’occupe de la cuisson et du bon déroulement des opérations.

Cette machine a bien entendu ses atouts en permettant aux deux mains gauches de la cuisine d’abandonner la junk food. Il a aussi ses inconvénients.
Le premier est son prix qui dépasse l’entendement.
Le deuxième est de donner l’illusion que faire une soupe est l’affaire du siècle.
La troisième, à mon sens la plus perverse, est que les plats préparés par ce robot sont moyens. Ils ne sont ni bons ni mauvais. Ils sont sans goût, sans piquant, sans originalité, car adaptés à tous les palets.

 
 
Est-ce que le thermomixage est un concept vendeur ?

Oui
Le thermomixage est une drogue douce d’une efficacité redoutable. On l’adopte sans discuter, car il met fin à la tyrannie du choix. Pas besoin de demander « Algo, mon algo, qu’est-ce que tu me conseilles ? », il suffit de se brancher et de se laisser entraîner dans un flux continu. On choisit de regarder une vidéo. Quand elle se termine, Youtube en propose une autre, puis une autre. Trois heures plus tard, on continue à s’émerveiller des prouesses des chats.

Les algorithmes garantissent un confort total. Si vous regardez le dernier clash d’Éric Zemmour, ils ne vont pas vous perturber en proposant des conférences  du Collège de France ou une cantate de Bach. Ils vous laissent dans votre bulle et ne prennent jamais le risque de vous ouvrir l’esprit.

 
Est-ce qu’il y a des limites au thermomixage ?

Oui

Le thermomixage va :

 

Diminuer la diversité culturelle

La musique ou les films « de niche » ne peuvent pas trouver leur place dans ces systèmes pensés pour des consommations massives. Un objet très peu vu reçoit peu de notes et ne se retrouve quasiment jamais recommandé. Inversement, recommander systématiquement des objets populaires conduit à accroitre encore leur popularité.

Faire perdre le plaisir et l’esprit critique

Au fil du temps, on n’aimera ou n’aimera pas un film ou une musique. On le regardera ou l’écoutera sans se poser de question de notre plaisir. On deviendra assez rapidement des hamsters qui tournent dans leur cage en étant perfusés aux produits à la mode.

Organiser sa destruction
L’humain est un être incontrôlable. Fan de Leonard Cohen, il peut se réveiller un matin avec une furieuse envie d’écouter Maître Gims. Il peut en même temps prendre conscience qu’on le manipule et ne plus accepter qu’on lui impose une culture formatée par des machines.

Non

Le thermomixage en est à ses balbutiements.

Aujourd’hui, l’utilisateur a encore l’effort à faire de se connecter à son service de diffusion de musiques ou de films. Il faut qu’il sorte son téléphone ou ordinateur pour effectuer le clic de commande. On commence à lui faciliter la vie avec l’utilisation de la voix : « Alexa, musique », c’est tout de même plus simple .

Le stade suivant sera une connexion directe avec le cerveau. On devra penser «  musique » et la musique sera diffusée… Au stade d’encore après, déjà dans les cartons des chercheurs, on n’aura plus besoin de penser. Les machines nous indiqueront quand on veut écouter de la musique et quelle musique on aime.

Qu’est-ce qu’il y a dans les algos ?

Pour constituer ses listes et recommandations, les algorithmes utilisent la logique essayée et adoptée du “les gens qui aiment ceci aiment aussi cela”.

Ils passent aussi en revue une série de données.

  • Le mode de navigation dans le site : comment vous effectuez votre recherche ? Quel est le premier film ou musique qui retient votre attention ?
  • Le temps de lecture ou d’écoute, afin de déterminer votre niveau d’appréciation.
  • Les produits abandonnés, et au bout de combien de temps ;
  • Les corrélations que vous faites : une musique vous donne envie d’écouter une autre musique.
  • L’heure à laquelle vous avez regardé ce contenu.
  • Ce que vous avez regardé la semaine précédente, le mois précédent, l’année précédente à la même époque.
  • Les marqueurs de contenu des vidéos : êtes vous plus films d’horreurs ou documentaires ?
  • Les choix des contacts enregistrés ou repérés.

La liste est enrichie en permanence. Par exemple, sur les plateformes musicales, les timbres des voix, les fréquences, les rythmes des chansons font maintenant l’objet d’une catégorisation. L’idée est de proposer des voix similaires appartenant à un autre registre.

La manipulation se sophistique
Netflix modifie les vignettes de présentation de films en analysant celles qui retiennent l’attention de l’utilisateur.