Thème : Big Data, Machine Learning et Intelligences Artificielles Deep Learning
Années 90’ > Renaissance de l’IA avec le Machine Learning Depuis 50 ans > période de désillusion > Sous estimation des difficultés Années 90’ > Renaissance de l’IA avec le Machine Learning Yann le Cun : Lecture de cheque aux USA ( Directeur labo IA FB ) Domaine de l’informatique qui met au point des algorithmes permettant de déterminer pour de nouvelles données des caractéristiques à partir de la connaissance de données d’apprentissage. L’algorithme apprends des règles en se basant sur les données d’apprentissage et les applique à de nouvelles données.
Des exemples de machine Learning: Filtrage de contenu (Fil d’actualité Facebook, Publicité) : Entrée : Qui a posté ? Quand ? Nature ? Sujet ? Réactions des autres Sortie : Allez vous être intéressé ou pas ? Détection de fraude sur internet lors d’utilisation de carte de crédit : Entrée : Nature de transaction / Montant / Localisation Sortie : Est-ce bien une fraude ou la bonne personne ? Reconnaissance d’image : Entrée : Une image = Enormément de caractéristiques Association de neurone : Réseau de neurones Sortie : Que représente l’image ?
Objectifs : Modifier ces paramètres de manières à minimiser l’erreur Réponses fausse : Nouveau test Réponses correct : Algorithme d’apprentissage ajuste les boutons Phase d’apprentissage Des millions d’exemples nécessaires Des centaines de millions de boutons à ajuster Reconnaitre un objet 5 Milliards d’opérations (7/8images/sec) Basé sur des formules mathématiques connu depuis des siècles Objectifs : Modifier ces paramètres de manières à minimiser l’erreur Apprentissage auto / supervisé On présente une image, on attend le résultat
Abstraction de l’image Combien faut-il d’entrée X ? Image 400 x 400 = 160 000 pixels > 160 000 nombres / X > Trop long à entrainer Methode : Algorithme intermédiaire qui extrait des images des caractéristiques essentiels pour les intégrer ces caractéristiques en entrée aux réseaux de neurones. Abstraction de l’image Nouvelle entrée = resultat de l’algo Sortie Y Phase de prédiction Dépend énormément de l’algorithme intermédiaire Demande un « expert » pour chaque domaine
Problème : Entrainer la machine pour produire des réponses correct sur des produits inconnus ? Différents types de chaises, tables …
Deep Learning Principe : Gros réseau > Pleins de couches de neurones artificiels Séquences de modules entrainable, hiérarchisé entrainé sur des millions de données Yann le Cun a commencé dans les années 1990 le Deep Learning ( Directeur labo IA FB ) Compétitions de reconnaissance d’images 2010 : 28% - 54% 2011 : 26% - 50% 2012 : 16% - 30% 2013 : 12% - 14% 2014 : 12% - 6,6% Réseau profond (Deep learning) Au lieu d’avoir une partie conçu par des ingénieurs, séquence de modules entrainable séquentiellement, produite par l’algorithme d’apprentissage, entrainé par des données. Réseaux de neurones artificiels inspiré de la biologie (mais justifié par la théorie) Plus efficace que des ingénieurs humain
Neurone biologique met en relation entrée X et sortie Y 0 : Aucun signal envoyé 1 : Signal envoyé : Le neurone décharge Neurone artificiel : Mimer le comportement par une fonction mathématique Somme des entrées X en affectant un coeff : poids Somme > Certain Seuil : 1 Somme < Certain Seuil : 0 Sorties Y Empiler les neurones : Réseaux de neurones Beaucoup d’entrées et de sorties Poid et seuil : variable modifiable par l’algorithme Neurone reçoit ou pas signal électrique des autres neurones 0 ou 1
Miracle : L’algorithme Deep Learning contient dans ces couches supérieurs ces caractéristiques essentiels (développé par l’algo intermédiaire auparavant)
Pourquoi la réussite soudaine du Deep Learning ? Algorithme en progrès : Architecture de neurones particulière Progrès des GPU (Puissance pour le traitement d’images) Disponibilité des données : 2012: Imagesnet.org par le laboratoire de Standfort Imagesnet.org = 15M d’images 22 000 Catégories (A demandé 50 000 employés dans 167 Pays) 2016 : Réseaux profonds contenant plus d’une centaine de couches, plus d’une dizaine de millions de neurones On balance des millions d’images de chat , l’algo découvre tout seul les caractéristiques essentiels tout seul
Applications utilisant le Deep Learning: (Autres que d’analyser notre vie privée sur les réseaux sociaux…) Analyser scène sur une images pour en ressortir une phrase (plutôt utile pour les malvoyant) Voiture autonome Drones (suivre l’évolution forêt tropical) Caméra (Alerter lorsqu’un enfant se noie) Reconnaissance vocal (Microsoft / Google sur Android)
Capacité à fabriquer des images (Réseaux inversé) = Modèle génératifs Images bruts -> algo détecte caractéristiques essentiels Séries de nombres en entrée Images inventées
« Google Deep Dream » Quoi que tu vois, on en veut plus
Conclusion Gros progrès depuis 3 ans: Reconnaissance parole, image, texte Obstacle : Sur quel principe baser l’apprentissage non supervisé ? Exemple, comment apprendre à des machines: Le fait que le monde est tri dimensionnel en regardant une vidéo Le fait qu’un objet peut passer devant un autre et le cacher
Sources http://www.lemonde.fr/pixels/article/2015/07/09/on-a-teste-pour-vous-deep-dream-la- machine-a-reves-psychedeliques-de-google_4675562_4408996.html https://sciencetonnante.wordpress.com/2016/04/08/le-deep-learning/ https://www.youtube.com/watch?v=trWrEWfhTVg https://www.ted.com/talks/fei_fei_li_how_we_re_teaching_computers_to_understand_picture s/transcript?language=en#t-150254 https://www.youtube.com/watch?v=RgUcQceqC_Y