les-acteurs-referents-du-big-data-presentent-les-dernieres-evolutions-du-secteur-1

Les acteurs référents du big data présentent les dernières évolutions du secteur

14h - 14h30 : Microsoft

Sujet et intervenant à venir

 

14h30 - 15h : MathWorks

Prédire vaut mieux que prévenir : Incremental machine learning pour de la maintenance prédictive, avec Pierre Harouimi, Ingénieur d'applicaiton IA chez MathWorks

Extrait :

Le Big Data implique de grandes décisions dans les usines intelligentes. Les machines connectées et automatisées produisent des flux de données en temps réel, que les algorithmes d'intelligence artificielle transforment en connaissances exploitables. La production de ces connaissances nécessite souvent un temps considérable avec un traitement batch qui prend des heures ou se déroule du jour au lendemain. Ce décalage entre les données et la décision crée des inefficacités dans la chaîne d'approvisionnement et la maintenance.

La complexité d'une chaîne d'approvisionnement ou d'un processus de fabrication rend difficile le développement manuel des modèles précis requis pour la création de connaissances. Les algorithmes de machine learning construisent ces modèles automatiquement.

Une nouvelle classe d'algorithmes d'apprentissage automatique augmente la réactivité et la précision en mettant à jour dynamiquement leurs modèles en temps quasi réel. Ces algorithmes d'apprentissage incrémentiel ou online traitent les données entrantes en connaissances, puis réinjectent ces connaissances dans le modèle. La mise à jour du modèle à partir du flux de données présente plusieurs avantages: moins de copies des données, ce qui augmente la sécurité; élimination du temps et du coût de la redistribution du modèle; capacité à gérer des ensembles de données qui dépassent la mémoire système ou la capacité de stockage; et la possibilité d'appliquer l'apprentissage automatique dans des environnements isolés, où les ressources de traitement par batch ne sont pas disponibles.

 

15h - 15h30 : IBM

Quelles sont les différentes facettes d'une plateforme de données moderne pour faire de l'IA ?, avec Corinne Baragoin, Data Architect chez IBM

Extrait :

Comment une organisation peut-elle prospérer en 2020 tout en faisant face aux demandes de plus en plus importantes sur les données, aux offres de produits multiples et aux architectures qui se complexifient ?

Il faut repenser l’usage de la donnée dans son apport au business, la valoriser de manière intégrée par l’analytique ou l’intelligence artificielle, la maîtriser et la gouverner automatiquement, et rendre cette donnée disponible où qu'elle se trouve auprès des utilisateurs. Telles sont les différentes facettes auxquelles doit répondre une plateforme de données moderne et innovante aujourd’hui.

L’adoption d’une plateforme intégrée, basée notamment sur le principe de la containerisation, permet d’accélérer, d’être plus productifs, et de partager les assets et la connaissance des données dans l’organisation.

 

Chaque session se terminera par 5mn de Q&A

Conférence animée par :

Intervenant Webikeo

Arthur WOLGUST

Responsable Marketing,

SARL CORP EVENTS

Intervenant Webikeo

Pierre HAROUIMI

Ingénieur d'application,

Mathworks

Intervenant Webikeo

Corinne Baragoin

,

Jeudi 3 Septembre

de 14H00 à 15H30

25 inscrits | 90 mn

Inscription 100% gratuite

Alertes email avant le webinar

Zone de chat pour poser vos questions

Rediffusion jusqu'au 15/01/2021

S'inscrire au webinar
 Ajouter à mon agenda 09/03/2020 14:00:00 09/03/2020 15:30:00 Europe/Paris Les acteurs référents du big data présentent les dernières évolutions du secteur 14h - 14h30 : Microsoft Sujet et intervenant à venir   14h30 - 15h : MathWorks Prédire vaut mieux que prévenir : Incremental machine learning pour de la maintenance prédictive, avec Pierre Harouimi, Ingénieur d'applicaiton IA chez MathWorks Extrait : Le Big Data implique de grandes décisions dans les usines intelligentes. Les machines connectées et automatisées produisent des flux de données en temps réel, que les algorithmes d'intelligence artificielle transforment en connaissances exploitables. La production de ces connaissances nécessite souvent un temps considérable avec un traitement batch qui prend des heures ou se déroule du jour au lendemain. Ce décalage entre les données et la décision crée des inefficacités dans la chaîne d'approvisionnement et la maintenance. La complexité d'une chaîne d'approvisionnement ou d'un processus de fabrication rend difficile le développement manuel des modèles précis requis pour la création de connaissances. Les algorithmes de machine learning construisent ces modèles automatiquement. Une nouvelle classe d'algorithmes d'apprentissage automatique augmente la réactivité et la précision en mettant à jour dynamiquement leurs modèles en temps quasi réel. Ces algorithmes d'apprentissage incrémentiel ou online traitent les données entrantes en connaissances, puis réinjectent ces connaissances dans le modèle. La mise à jour du modèle à partir du flux de données présente plusieurs avantages: moins de copies des données, ce qui augmente la sécurité; élimination du temps et du coût de la redistribution du modèle; capacité à gérer des ensembles de données qui dépassent la mémoire système ou la capacité de stockage; et la possibilité d'appliquer l'apprentissage automatique dans des environnements isolés, où les ressources de traitement par batch ne sont pas disponibles.   15h - 15h30 : IBM Quelles sont les différentes facettes d'une plateforme de données moderne pour faire de l'IA ?, avec Corinne Baragoin, Data Architect chez IBM Extrait : Comment une organisation peut-elle prospérer en 2020 tout en faisant face aux demandes de plus en plus importantes sur les données, aux offres de produits multiples et aux architectures qui se complexifient ? Il faut repenser l’usage de la donnée dans son apport au business, la valoriser de manière intégrée par l’analytique ou l’intelligence artificielle, la maîtriser et la gouverner automatiquement, et rendre cette donnée disponible où qu'elle se trouve auprès des utilisateurs. Telles sont les différentes facettes auxquelles doit répondre une plateforme de données moderne et innovante aujourd’hui. L’adoption d’une plateforme intégrée, basée notamment sur le principe de la containerisation, permet d’accélérer, d’être plus productifs, et de partager les assets et la connaissance des données dans l’organisation.   Chaque session se terminera par 5mn de Q&A [email protected] luatngogia.net/webinar/les-acteurs-referents-du-big-data-presentent-les-dernieres-evolutions-du-secteur-1 MM/DD/YYYY

Soyez informé de nos prochains webinars, abonnez-vous à notre chaîne.

BIG DATA PARIS

BIG DATA PARIS

S'abonner
big-data-paris
Abonné
197