MOOC sur les deep tech

56 résultats sur 56 entrées

FIDLE / CNRS

CNN : Les Réseaux convolutif

Intelligence Artificielle Réseaux convolutif

CNN : Les Réseaux convolutif Lorsque les données deviennent trop importantes, dans les cas des images mais pas seulement, les réseaux convolutifs sont incontournables ! Principes et concepts des réseaux convolutifs. Convolutions et paramètres associés.

Effort : 0,5h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

Introduction au Deep Learning Session 1

Intelligence Artificielle Introduction au Deep Learning

Formation Introduction au Deep Learning (Fidle) - Séquence 01

Effort : 3h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

Introduction au Deep Learning Session 2

Intelligence Artificielle Introduction au Deep Learning

Formation Introduction au Deep Learning (Fidle) - Séquence 02

Effort : 2h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

Contexte et outils, séquence 1

Intelligence Artificielle Outils pour l’IA

Le Deep Learning expliqué, en séquences courtes ! Méthode scientifique et IA : Intelligence artificielle, machine learning et Deep Learning, quelles différences ? Apprentissage supervisé, non supervisé : les grandes familles du ML.Quels outils et comment faire du Deep Learning ?

Effort : 0,4h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

De la régression linéaire au neurone artificiel, Séquence 2

Intelligence Artificielle Outils pour l’IA : Regresseion et Neurone artificiel

Le Deep Learning expliqué, en séquences courtes ! Comprendre la régression linéaire et la régression logistique pour comprendre ce qu’est un neurone artificiel ! Dans cette vidéo, nous découvrirons ce qu’est un neurone artificiel, quels sont les grands principes de la descente de gradient et les limites des solveurs linéaires ou des réseaux à 1 neurone 😉

Effort : 0,4h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

RNN : Réseaux récurrents

Intelligence Artificielle RNN : Réseaux récurrents, LSTM, GRU

RNN : Réseaux récurrents Les données séquentielles sont omniprésentes et les réseaux de neurones récurrents occupent une place privilégiées pour les traiter. Nous verrons dans cette première parties, les bases de ces réseaux récurrents et les principes des cellules LSTM ou GRU.

Effort : 0,5h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

La controverse des neurones, Séquence 3

Intelligence Artificielle Outils pour l’IA : Réseaux multicouches et apprentissage machine

Le Deep Learning expliqué, en séquences courtes ! Le cycle complet comprend 9 séquences diffusées au fils de l’eau. Nous découvrirons dans cett vidéo comment fonctionnent ces réseaux multicouches et comment mettre en œuvre un processus d’apprentissage machine.

Effort : 0,6 Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

Prédiction météorologique

Intelligence Artificielle RNN : Exemple de réseaux récurrents

Prédiction météorologique Un autre exemple d’utilisation d’un RNN, avec une tentative de prévision météorologique à 3h et à 12h, à partir de données réelles.

Effort : 0,5h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

Régression et Classification avec un DNN

Intelligence Artificielle Outils pour l’IA :Régression et classification

Le Deep Learning expliqué, en séquences courtes ! Le cycle complet comprend 9 séquences diffusées au fils de l’eau. Deux exemples de mise en œuvre avec une régression et une classification à l’aide de réseaux entièrement connectés (DNN). L’exemple de régression à pour objectif de prédire le prix d’une habitation à partir de caractéristiques du quartier (dataset Boston House Dataset)

Effort : 1h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

VAE : Implémentation d’un VAE

Intelligence Artificielle VAE : Implémentation d’un VAE

VAE : Implémentation d’un VAE (MNIST) Double exemple d’implémentation d’un Variational Autoencoder (VAE), en utilisant : - L’API fonctionnelle de Keras - L’utilisation d’une classe VAE, construite sur Keras Ces deux exemples sont illustrés avec le Dataset MNIST.

Effort : 0,6h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

VAE : Variational Autoencoder

Intelligence Artificielle VAE : Variational Autoencode

VAE : Variational Autoencoder Du réseau autoencodeur (AE) au Variational Autoencoder (VAE)ou comment parcourir l’imagination de nos réseaux. Au programme : Principes et architecture d’un Variational Autoencoder (VAE).Problématiques liées à la gestion de "gros" datasets.Projection gaussienne - Génération de données - Morphing dans l’espace latent.Programmation avancée avec Keras - Datasets clusterisés.

Effort : 0,3h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

AE : Modèles avancés

Intelligence Artificielle AE : Modèles avancés d’autoencodeur

AE : Modèles avancés Implémentation de modèles avancés à double sorties et inception. L’objectif est de renforcer notre classifieur grâce à un apprentissage convolutif parallèle et différencié.

Effort : 0,6h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

Prédiction simple d’une trajectoire

Intelligence Artificielle RNN : Exemple de réseaux récurrents

Exemple de prédiction simple d’une trajectoire Notre premier exemple d’utilisation d’un RNN va consister à essayer de prédire la trajectoire d’une coccinelle... virtuelle !

Effort : 0,5h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

AE : Autoencodeur débruiteur

Intelligence Artificielle AE : Autoencodeur débruiteur

AE : Autoencodeur débruiteur Un premier exemple de réseau autoencodeur avec un débruiteur. Le dataset utilisé est MNIST.

Effort : 0,3h Rythme : Auto-rythmé

En savoir plus

FIDLE / CNRS

AE : Réseaux Autoencodeurs

Intelligence Artificielle AE : Réseaux Autoencodeurs

AE : Réseaux autoencodeurs Les autoencodeurs sont un bon exemple d’apprentissage non supervisé. Après une présentation des concepts et des couches convolutives (normales et transposées), nous nous intéresserons a la manière d’implémenter efficacement des modèles avancés avec l’API fonctionnelle de Keras.

Effort : 0,6h Rythme : Auto-rythmé

En savoir plus