deepl learning definition

Machine learning Définition

Rassurez-vous, le Machine Learning n’est pas un vocabulaire tout droit sorti d’un film de science-fiction. L’apprentissage automatique évoque des programmes informatiques qui nous sont utiles au quotidien. Cet article vous apporte la définition, le fonctionnement, mais également différents exemples concrets.

Le Machine Learning est un apprentissage automatique

Branche de l’intelligence artificielle, le Machine Learning est un domaine scientifique basé sur l’informatique. L’apprentissage automatique repose sur différents types d’algorithmes avec leurs propres fonctionnements. Cela dit, la majorité de ces programmes ont pour objectif de découvrir des « patterns ». Ce sont des modèles ou motifs récurrents dans une base de données. L’ordinateur retient alors une logique à partir d’une compilation de statistiques, de mots ou d’images.

Les programmes de Machine Learning puisent ainsi dans les bases de données, quel que soit le format des fichiers. Le logiciel décerne des patterns ou bien des patrons qui reviennent assez souvent pour être des règles établies. La connaissance de ces modèles sert à améliorer l’exécution d’une tâche. En d’autres mots, le programme devient plus performant lorsqu’il comprend mieux ce qui se passe en décortiquant les datas.

À partir de chiffres ou de simples séquences d’images, les algorithmes de Machine Learning gagnent en autonomie. Ces bases leur permettent également de faire des prédictions et d’anticiper les décisions à prendre. Cet automatisme repose sur beaucoup de programmations. En effet, les applications représentent uniquement la partie émergée de l’iceberg. L’autre côté comprend des centaines d’heures de codage.

Des exemples d’applications concrètes

Avant de poursuivre, il faut préciser que l’Intelligence artificielle est basée sur le Machine Learning. Cette catégorie constitue l’un de ses piliers. Quoi qu’il en soit, les grands groupes opérant dans le Web 2.0 ne peuvent presque plus s’en passer. Ces multinationales s’en servent pour recommander des produits à leurs clients, adapter des fonctionnalités ou régler leurs prestations.

  • YouTube propose les vidéos aux visiteurs à partir du Machine Learning. Les contenus s’affichent en fonction des détails tels que la situation géographique, la langue du programme utilisé ou le profil de l’abonné. Netflix et Spotify reprennent le même système, mais avec des algorithmes développés par leurs propres soins.
  • Google et la majorité des moteurs de recherche utilisent l’apprentissage automatique. Les propositions d’expression à saisir mais également les résultats sont basées sur une forme de déduction autonome.
  • Les réseaux sociaux Facebook et Twitter comptent énormément sur le Machine Learning. Le fil d’actualité s’adapte en fonction des préférences de l’abonné, mais aussi en prenant en considération son profil.
  • Les assistants vocaux tels que Siri et Alexa sont des exemples de l’utilité de l’Intelligence artificielle au quotidien. Ces enceintes connectées apprennent et finissent par mieux comprendre les requêtes de l’usager au fil des interactions. Elles embarquent une technologie évolutive de traitement naturel du langage (NLP).

L’apprentissage automatique sert surtout pour la prédiction

Les plateformes opérant depuis Internet sont les pionniers du Machine Learning. Ces géants du Web explorent et analysent d’importantes quantités de données personnelles pour pouvoir établir des logiques. Chaque utilisateur a ainsi ses propres « patterns ». Ses habitudes déterminent le genre de films ou de contenus qui lui seront proposés.

À l’affût des moindres informations exploitables, les grandes entreprises prêtent beaucoup d’attention aux liens cliqués, publications faites, ou les commentaires déposés. L’algorithme de Machine Learning se nourrit de données pour pouvoir les transformer en déduction personnalisée. Il suffit d’avoir visionné une vidéo de danse pour avoir des centaines de propositions de contenus axés sur la chorégraphie.

Quoi qu’il en soit, les fournisseurs de divertissements digitaux ne sont pas les seuls à exploiter l’apprentissage automatique. Pour cause, les aspirateurs robots sont dotés de programme de Machine Learning. Ils reconnaissent de manière autonome à éviter les zones où leurs roues peuvent se coincer. C’est le même cas pour les voitures sans conducteur, le GPS et les applications de saisie vocale. Tous ces domaines ont en commun d’utiliser un langage de programmation Python pour leur Machine Learning.

Une approche scientifique en 4 étapes

Les programmes de Machine Learning passent par quatre étapes principales.

  • Dans un premier temps, le data scientist définit les données d’entraînement. Ce sont les renseignements dont l’algorithme va se servir pour établir des déductions. L’étiquetage peut aider le logiciel à retrouver rapidement les caractéristiques récurrentes à retenir. Dans tous les cas, le manipulateur devrait préparer, organiser et nettoyer les données pour éviter d’avoir des résultats biaisés.
  • La deuxième étape revient à mettre au point l’algorithme lui-même. Parfois, il existe des catalogues où le data scientist peut trouver l’outil qu’il lui faut. Le type de programme dépend du genre et de la taille des données d’entraînement à travailler. Les requêtes vont aussi compter dans la décision.
  • Avec le troisième palier, l’humain amorce l’algorithme à sa tâche. Il s’agit d’un ensemble d’exécutions en vue de résultats comparables au modèle souhaité. Des paramètres techniques tels que le poids ou le biais permettent d’avoir une grande précision. Plusieurs types de variables sont essayés jusqu’à obtenir les déductions attendues.
  • Dans la quatrième étape, le logiciel entre dans une phase de perfectionnement de ce qu’il sait déjà faire. Il est possible d’ajouter d’autres problèmes à résoudre. Les nouvelles cartographies d’une pièce permettent au robot aspirateur de comprendre rapidement que des meubles ont été déplacés.
A lire également  Olap Définition

Plusieurs algorithmes dédiés pour l’apprentissage automatique

Les algorithmes pouvant décortiquer les données étiquetées sont les plus nombreux. Cela dit, de nouveaux programmes voient le jour régulièrement. En effet, chaque logiciel de Machine Learning répond à une application précise.

  • Les modèles dits de régression linéaire sont couramment utilisés pour les prédictions des performances. À titre d’exemple, ils permettent de déterminer les chiffres d’affaires qu’un commercial apporte en fonction de ses qualifications.
  • Pour un algorithme de régression logistique, ce sont des variables binaires qui entrent en jeu. Plusieurs paramètres vont converger en une paire de résultats. Une variante dite machine à vecteur de support est utilisée lorsque la classification des différents critères est tout simplement trop complexe ou impossible.
  • Le cheminement logique appelé arbre de décision reste toutefois le plus populaire de tous. Cet algorithme établit diverses recommandations à partir de règles pour des données classées. Exemple : l’application prédit le score d’un match en se basant l’âge des joueurs ou bien le statistique des victoires entre les deux équipes.

Avec les données non étiquetées, il existe aussi quelques grandes tendances.

  • Le «  clustering » gère des groupes avec des caractéristiques similaires. L’enregistrement est conditionné par l’appartenance. Les outils tels que K-moyennes, TwoStep ou Kohonen sont parmi les plus connus.
  • Les algorithmes d’association déterminent des patterns et des corrélations à partir de la condition si/alors. Ces programmes sont couramment utilisés dans le Data Mining où il faut décortiquer une énorme quantité de données.
  • Plus complexes que tous les autres, les réseaux de neurones sont multicouches. Les datas sont épluchées comme un oignon pour en comprendre la logique profonde. Ce sont des outils spécifiques pour le Deep Learning.

Trois branches distinctes pour cette discipline informatique

Avec le Machine Learning : l’apprentissage peut être supervisé ou non. Dans le premier cas, les données sont étiquetées afin de permettre à l’algorithme d’emprunter plus facilement le cheminement à suivre. Le logiciel cherche à confirmer un modèle renseigné à l’avance. Les informations peuvent être classifiées. Le programme se contente également de comparer. Par contre, il faut tout un chantier pour l’étiquetage des données d’entraînement. Ces dernières peuvent parfois être biaisées et induire à des résultats peu fiables.

Pour l’apprentissage non supervisé, ce sont des données brutes qu’il faut décortiquer. Le programme les explore à la recherche d’une ou plusieurs logiques à retenir. Les algorithmes recensent les caractéristiques pertinentes pour ensuite passer à l’étiquetage. Ils se chargent également du triage et de la classification en temps réel. Toute cette démarche s’effectue sans aucune intervention humaine. Ce qui réduit davantage le risque d’erreur. Sa complexité la rend invulnérable aux cyberattaques.

Un apprentissage semi-supervisé se considère comme un compromis entre les deux méthodes. Les données partiellement étiquetées servent de guides pour la classification et l’extraction des différentes caractéristiques. Ce qui permet de contourner des difficultés propres au Machine Learning qui reposent sur la rigueur mathématique. L’apprentissage par renforcement fait encore mieux puisque l’algorithme note chaque erreur qu’il a pu recenser pour connaître le résultat exact. C’est l’arme fatale grâce auquel l’ordinateur finit par battre l’humain sur n’importe quel jeu.

reseau neuronal

Le Deep Learning et les fonctions neuronales

Bien qu’il reste encore peu connu, le Deep Learning est de l’apprentissage automatique qui voit le jour dans les années 80. Geoffrey Hinton pose ses fondements en 1986. Depuis, cette branche indépendante a gagné en puissance et en performance. C’est l’approche qui permet de comprendre les logiques les plus subtiles. Les spécialistes l’appellent également l’apprentissage profond par réseaux neuronaux. Les données sont analysées en cascades comme dans le cerveau humain.

Les autres formes de la Machine Learning sont couramment utilisées dans diverses applications. Cela va des jouets pour enfants à la robotique industrielle. Par contre, l’apprentissage neuronal est encore un privilège pour la science des données. C’est le panache de logiciels prédictifs. Les programmes sont capables d’anticiper des événements complexes. Ainsi, les ordinateurs de bord dans les voitures autonomes ne se contentent pas d’éviter de percuter d’autre usager de la route. Ils parviennent à contourner les voies de circulation avec une éventuelle formation d’embouteillage.

Dans le Deep Learning, les algorithmes digèrent les données pour en sortir des conclusions sous forme de statistiques. Si les informations changent, la machine est capable de prendre une décision sans la moindre intervention humaine. La domotique, la cuisine, les télécommunications et d’autres applications en profitent déjà. Par contre, le système semble ne pas être totalement au point puisqu’il faut encore un opérateur derrière. C’est à peine si les conducteurs de bus auront juste moins de « taf » avec les cars autonomes.

Yohann G.