LES DIFFERENTES MANIÈRES DE PENSER LE « MACHINE LEARNING »

Ceci est la traduction française par Christian Renard d'un article de Benedict Evans publié le 22 Juin 2018

L'explosion du "Machine Learning" a débuté il y a 4 à 5 ans, et pratiquement tout le monde en a entendu parler. Des startups se forment tous les jours et les grandes sociétés technologiques se reconstruisent autour de lui - pas besoin d'être un "geek" : tout le monde a lu les articles phares de l'Economist ou de BusinessWeek sur le sujet, et de nombreuses grandes entreprises ont des projets en cours. Nous savons que c'est la prochaine Révolution..
En allant plus loin, nous comprenons à peu près ce que sont, en théorie, les réseaux et nous savons que cela tourne autour des modèles et des données. Le "Machine Learning" nous permet de trouver dans les données des modèles ou des structures implicites et probabilistes (donc «inférées») plutôt qu'explicites, que seules les personnes et non les ordinateurs pouvaient trouver auparavant. Ils abordent une catégorie de questions qui étaient auparavant «difficiles pour les ordinateurs et faciles pour les gens», ou, peut-être plus utilement, «difficiles à décrire à des ordinateurs». Et nous avons vu des démonstrations voix-images séduisantes (ou inquiétantes, selon votre perspective).
Je ne pense pas, cependant, que nous ayons une idée précise de ce que signifie le Machine Learning - ce qu'il va apporter aux entreprises technologiques ou aux entreprises des autres secteurs de l'économie, quelles innovations il rendra possible et comment les penser en termes de structure, ou ce que sera l'impact du Machine Learning pour le reste d'entre nous, et quels problèmes importants pourraient effectivement être résolus.
Le terme «intelligence artificielle» ne facilite pas la tâche, car il tend à mettre fin immédiatement à toute conversation dès qu'elle a commencé. Dès que nous prononçons les mots "Intelligence Artificielle, il se produit un phénomène identique à celui provoqué par le monolithe noir du début de 2001,odyssée de l'Espace et nous devenons tous comme les singes hurlant dessus et agitant nos poings. Il est impossible d'analyser l'IA.

En fait, je pense qu'on pourrait proposer toute une liste de façons inutiles de parler des développements actuels du Machine Learning. Par exemple:

- "Data is the new Oil"
- Google et la Chine (ou Facebook, Amazon, ou Baïdu, Alibaba, Tencent) ont toutes les données.
- L'IA va prendre tous nos emplois
- Et, bien sûr, en prononçant les mots "Intelligence Artificielle"

Il serait peut-être plus utile de parler de:

- Automatisation
- Activation de nouvelles couches technologiques
- Bases de données relationnelles.

Pourquoi les bases de données relationnelles? C’est une nouvelle couche d'activation fondamentale qui a changé ce que l'informatique pouvait faire. Avant l'apparition des bases de données relationnelles à la fin des années 1970, si vous vouliez que votre base de données vous montre, par exemple, «tous les clients qui ont acheté tel produit et qui vivent dans telle ville», il fallait en général un projet informatique spécifique. La structure des bases de données ne permettait pas de faire de manière facile et routinière des requêtes permettant la construction de tableaux croisés Si vous vouliez poser une question, quelqu'un devait construire une requête. Les bases de données étaient des systèmes d'archivage; les bases de données relationnelles les ont transformées en systèmes de "business intelligence".
Cela a transformé en profondeur l'utilisation des bases de données, en faisant apparaître de nouveaux cas d'utilisation et de nouvelles entreprises milliardaires en dollars. Les bases de données relationnelles nous ont donné Oracle, mais elles nous ont aussi donné SAP, et SAP et ses pairs nous ont donné le "just in time" qui a transformé les chaînes d'approvisionnement mondiales - elles nous ont aussi donné Apple et Starbucks. Dès 1990, la plupart des logiciels d'entreprise étaient des bases de données relationnelles - PeopleSoft, le CRM, SuccessFactors et des dizaines d'autres étaient gérés sur des bases de données relationnelles. Personne n'a regardé SuccessFactors ou Salesforce et déclaré: «ça ne marchera jamais parce qu'Oracle a toute les bases de données». Au contraire, cette technologie est devenue une couche essentielle de tout système.
Donc, cette analogie peut nous aider aujourd'hui à penser le Machine Learnning - c'est un changement radical de ce que nous pouvons faire avec les ordinateurs, et il sera intégré dans de nombreux produits différents pour une multitude d' entreprises. Au final,il y aura du Machine Learning partout, et personne ne s'en souciera.

Un parallèle important ici est que, bien que les bases de données relationnelles aient eu des effets d'économie d'échelle, la création de réseaux a été limitée et il y a eu peu d'effets «winner takes all». La base de données utilisée par la société A ne s'améliore pas si la société B achète le même logiciel de base de données auprès du même fournisseur: la base de données de Safeway ne s'améliore pas si Caterpillar achète la même. Il en va de même pour le Machine Learning: le Machine Learning est une affaire de données, mais les données sont, elles, très spécifiques à des applications particulières. Plus de données manuscrites rendront plus facile un dispositif de reconnaissance d'écriture manuscrite, et plus de données sur les turbines à gaz amélioreront un système qui prédit mieux les défaillances des turbines à gaz, mais il n'y a aucune synergie entre les deux. Les données ne sont pas fongibles.
Ceci nous amène au cœur de l'idée fausse la plus répandue en matière de Machine Learning: il s'agirait en quelque sorte d'une chose à usage général, à la manière de HAL 9000, et Google et Microsoft auraient construit chacun le leur, ou « Google 'a toutes les données', ou, IBM a une chose bien réelle appelée 'Watson'. Vraiment, on fait toujours la même erreur quand on regarde l'automatisation: à chaque vague d'automatisation, nous imaginons que nous créons quelque chose d'anthropomorphique ou quelque chose doté d'une intelligence générale. Dans les années 1920 et 1930, nous imaginions les hommes des aciéries marchant autour des usines avec des marteaux dans les mains et, dans les années 1950, nous imaginions des robots humanoïdes s'agitant dans la cuisine pour faire le ménage. Nous n'avons pas eu de robots serviteurs - nous avons eu les machines à laver.

Les machines à laver sont des robots, mais elles ne sont pas «intelligentes». Elles ne savent pas ce que sont l'eau ou les vêtements. De plus, elles ne sont pas d'usage général même dans le domaine étroit du lavage - vous ne pouvez pas mettre de la vaisselle dans une machine à laver, ni des vêtements dans un lave-vaisselle (ou plutôt vous pouvez, mais vous n'obtiendrez pas le résultat souhaité) . Ils sont juste un autre type d'automatisation, pas différent conceptuellement d'un tapis roulant ou d'une machine "pick-and-place". De la même manière, le Machine Learning nous permet de résoudre des problèmes que les ordinateurs ne pouvaient pas résoudre auparavant, mais chacun de ces problèmes nécessitera une mise en œuvre différente et des données différentes, un itinéraire différent vers le marché et souvent une entreprise différente. Chacun d'eux est une pièce d'automatisation. Chacun d'eux est une machine à laver.

Par conséquent, l'un des défis en parlant du Machine Learning est de trouver le juste milieu entre une explication mécaniste des mathématiques d'une part et des fantasmes sur l'IA générale de l'autre. Le Machine Learning ne créera pas HAL 9000 (en tous cas, très peu d'experts du domaine pensent qu'il le fera dans un avenir proche), mais il n'est pas utile non plus de l'appeler simplement «statistiques». En revenant aux parallèles avec les bases de données relationnelles, cela pourrait être un peu comme parler de SQL en 1980 - comment passe-t-on des jointures de tables à Salesforce.com? C'est très bien de dire 'ceci vous permet de poser ces nouvelles sortes de questions', mais ce n'est pas toujours très évident de savoir quelles questions. Vous pouvez faire des démonstrations impressionnantes de reconnaissance vocale et de reconnaissance d'image, mais encore une fois, qu'est-ce qu'une entreprise normale ferait avec cela? Comme me l'a dit récemment une équipe d'une importante société américaine de médias: «nous savons que nous pouvons utiliser ML pour indexer dix ans de vidéo de nos talents interviewant des athlètes - mais que cherchons-nous?

Quelles sont donc les machines à laver du Machine Learning, pour des entreprises de la "vraie" vie?

 Je pense que l'on peut réfléchir avec 2 types d'outils. Avec le premier, on pense en termes d'ensemble de types de données et de types de questions:


1- Le Machine Learning peut fournir de meilleurs résultats pour les questions que vous posez déjà sur les données que vous avez déjà, simplement comme une technique d'analyse ou d'optimisation. Par exemple, notre société de portefeuille Instacart a mis au point un système pour optimiser le parcours de ses "personal shoppers" dans les allées des supermarchés. Il a permis une amélioration de 50% ( il a été développé par trois ingénieurs utilisant les outils open source de Google, Keras et Tensorflow.
2- Le Machine Learning vous permet de poser de nouvelles questions sur les données que vous possédez déjà. Par exemple, un avocat qui fait de la recherche documentaire peut rechercher des courriels dont le contenu révèle que leur auteur est « en colère » ; il peut aussi rechercher des discussions ou des groupes de documents dégageant de l'anxiété ou anormaux, ainsi que des recherches par mot-clé.
3- Le Machine Learning ouvre de nouveaux types de données à l'analyse - jusqu'à maintenant, les ordinateurs ne pouvaient pas vraiment lire l'audio, les images ou la vidéo c'est désormais possible, et les progrès sont très rapides.. Dans ce cadre, c'est l'imagerie qui me paraît la plus intéressante.. Les ordinateurs ont toujours été capables de traiter le texte et les nombres , mais les images (et la vidéo) sont restées le plus souvent "opaques". Désormais, les ordinateurs peuvent «voir» , tout comme ils peuvent «lire». Cela signifie que les capteurs d'image (et les microphones) deviennent un tout nouveau mécanisme d'entrée - moins une «caméra» qu'un nouveau capteur puissant et flexible qui génère un flux de données (potentiellement) lisibles par une machine. Toutes sortes de choses se révéleront dans le domaine de la vision par ordinateur alors qu'on ne les perçoit pas comme telles aujourd'hui.
Il ne s'agit pas de reconnaître des images de chat. J'ai récemment rencontré une entreprise qui fournit des sièges à l'industrie automobile. Elle a mis un réseau de neurones sur une puce DSP bon marché avec un capteur d'image de smartphone bon marché, pour détecter s'il y a un pli dans le tissu. (On devrait voir toute sortes d'utilisation du machine learning sur des puces minuscules qui font une seule chose, comme le décrit l’exemple ci-dessus).Ca ne sert à rien de décrire cela comme de l' «intelligence artificielle»: c'est l'automatisation d'une tâche qui ne pouvait pas jusqu'à maintenant être automatisée. C'est une personne qui devait regarder.

Ce sens de l'automatisation est le deuxième outil pour penser le Machine Learning. Pour repérer un pli dans un tissu, on n'a pas besoin de 20 ans d'expérience - le cerveau d'un mammifère suffit. L'un de mes collègues a suggéré que le Machine Learning serait capable de faire tout ce qu'on arrive à faire faire à un chien avec le dressage, ce qui est aussi un moyen utile de penser aux biais de l'IA (Qu'est-ce que le chien a appris? Qu'est-ce qu'il y avait dans les données d'apprentissage? Êtes-vous sûr? Comment posez-vous la question?), mais c'est une approche limitée, parce que, contrairement aux réseaux de neurones tels que nous savons les construire, les chiens ont une intelligence générale et du bon sens. Andrew Ng a suggéré que le ML pourra faire en moins d'une seconde tout ce que vous pouvez faire Parler de ML a tendance à être une chasse aux métaphores, mais je préfère la métaphore qui dit qu'avec le ML vous devenez des stagiaires à vie, ou, peut-être, qu'il fait de vous des enfants de 10 ans toute votre vie..
Il y a cinq ans, si vous donniez à un ordinateur une pile de photos, il ne pouvait pas faire beaucoup plus que de les trier par taille. Un enfant de dix ans pouvait les classer en hommes et en femmes, un jeune de quinze ans en cool et pas cool et un stagiaire pouvait dire «celui-ci est vraiment intéressant». Aujourd'hui, avec le Machine Learning, l'ordinateur fait aussi bien qu'un enfant de dix ans, voire de quinze ans ans. Il n'aura peut-être jamais les capacités du stagiaire. Mais que feriez-vous si un million de jeunes de quinze ans regardaient vos données? Quels appels écouteriez-vous, quelles images regarderiez-vous, et quels transferts de fichiers ou paiements par carte de crédit inspecteriez-vous?
Autrement dit, le Machine Learning ne doit pas nécessairement essayer d'égaler les experts ou des décennies d'expérience ou de jugement. Nous ne sommes pas en train d'automatiser les experts. Au contraire, nous demandons (au Machine Learning) d'écouter tous les appels téléphoniques et de détecter ceux qui traduisent de la colère». 'Lisez tous les emails et trouvez les "fâchés"'. «Regarde une centaine de milliers de photos et trouve les gens cool (ou les moins bizarres)».
Dans un sens, c'est ce que l'automatisation fait toujours; Excel ne nous a pas donné des comptables artificiels, Photoshop et Indesign n'ont pas produit des graphistes artificiels et les machines à vapeur ne nous ont jamais donné de chevaux artificiels. (Dans une précédente vague d '«IA», les logiciels d'échecs ne nous donnaient pas un russe grincheux d'âge moyen dans une boîte). Nous avons plutôt automatisé une tâche discrète, à grande échelle.
Là où cette métaphore s'effondre (comme le font toutes les métaphores), c'est dans le sens où dans certains domaines, le Machine Learning ne se contente pas de trouver des choses que nous pouvons déjà reconnaître, mais il trouve des choses que les humains ne peuvent pas reconnaître où il trouve des modèles, des inférences ou des implications qu'aucun enfant de dix ans (ou un adulte de 50 ans) ne reconnaîtrait. Le meilleur exemple est celui d' AlphaGo de Deepmind. AlphaGo ne joue pas au GO de la même manière que les logiciels d'échecs par ordinateur jouaient aux échecs - en analysant chaque arborescence de mouvement possible séquentiellement. Au lieu de cela, on lui a donné les règles et un tableau et on l'a laissé essayer d'élaborer ses propres stratégies, en jouant plus de parties contre lui-même qu'un humain pourrait le faire dans de nombreuses vies. En fait, ce n'est pas tant l'image d'un stagiaire très très rapide qui ferait le travail d'un millier de stagiaires, c'est plutôt celle d’un stagiaire à qui vous donnez 10 millions d'images et qui revient en disant "c'est drôle, mais à partir du troisième million d'images, ce modèle a commencé à apparaître nettement". Alors, quels champs sont assez étroits pour que nous puissions en donner les règles à un système ML (ou lui donner un score), mais assez profonds pour qu'en examinant toutes les données, comme aucun humain ne pourrait jamais le faire, on puisse faire ressortir de nouveaux résultats?
Je passe beaucoup de temps à rencontrer des grandes entreprises et à parler de leurs besoins en matière de technologie. Elles ont généralement des cas d'usage évidents (low-hanging fruits) pour le Machine Learning. Il y a beaucoup de problèmes d'analyse et d'optimisation évidents, et beaucoup de choses qui relèvent clairement de la reconnaissance d'image ou de l'analyse audio. De même, la seule raison pour laquelle nous parlons de voitures autonomes et de réalité mixte est que le Machine Learning (probablement) le permet - le Machine Learning permet aux voitures de déterminer ce qui les entoure et ce que les conducteurs humains vont peut-être faire. Il permet également à la réalité mixte de déterminer ce qu'il faut me montrer, lorsque je porte des lunettes permettant de tout voir. Mais quand on leur parle de l'analyse des plis dans les tissus ou de l'analyse des sentiments dans les centre d'appels, ces entreprises ont tendance à décrocher et à demander "Y a-t-il autre chose?"» Quelles sont ces autres choses que cela va permettre et quelles sont les inconnues "inconnues" qu'il va trouver? Nous avons probablement dix à quinze ans devant nous avant que cela commence à devenir ennuyeux.

Benedict Evans