Accueil Publimath  Aide à la recherche   Recherche Avancée   Imprimer la fiche   Aidez-nous à améliorer cette fiche  Vidéo d'aide
Certification IDDN Valid HTML 4.01 Transitional
Auteur(s) : Peyré Gabriel

Titre : CultureMATH. Claude Shannon et la compression des données.

Editeur : CultureMATH - ENS Ulm Paris, 2017

Type : film, vidéo Langue : Français Support : internet

Public visé : enseignant Niveau Niveau scolaire visé par l'article : licence Age : 18, 19, 20

Classification : D45Histoire et épistémologie des mathématiques à partir du 19e siècle.
Enseignement supérieur
 D49Histoire et épistémologie des mathématiques à partir du 19e siècle.
Formation à l'enseignement, initiale et continue.
 D55Histoire et épistémologie des disciplines connexes
Enseignement supérieur
 D59Histoire et épistémologie des disciplines connexes
Formation à l'enseignement, initiale et continue.
 P25Informatique théorique (structuration des données, codage des données, théorie du codage et de l'information, analyse des algorithmes et problèmes de complexité, modes de calcul et complexité calculatoire, langages formels)
Enseignement supérieur
 P29Informatique théorique (structuration des données, codage des données, théorie du codage et de l'information, analyse des algorithmes et problèmes de complexité, modes de calcul et complexité calculatoire, langages formels)
Formation à l'enseignement, initiale et continue.
 U85Utilisation des médias audiovisuels (radiodiffusion, télévision, internet, diaporamas, films, vidéos, etc.)
Enseignement supérieur
 U89Utilisation des médias audiovisuels (radiodiffusion, télévision, internet, diaporamas, films, vidéos, etc.)
Formation à l'enseignement, initiale et continue.
 

Résumé :

L'immense majorité des données (texte, son, image, vidéo, etc.) sont stockées et manipulées sous forme numérique, c'est-à-dire à l'aide de nombres entiers qui sont convertis en une succession de bits (des 0 et des 1). La conversion depuis le monde analogique continu vers ces représentations numériques discrètes est décrite par la théorie élaborée par Claude Shannon (30 avril 1916 - 24 février 2001), le père fondateur de la théorie de l'information. L'impact de cette théorie sur notre société est absolument colossal. Sur le plan théorique, Shannon a montré que si l'on modélise le message à coder comme étant généré par une sources aléatoire, alors le nombre de bits par symbole minimum pour coder ce message est égal à l'entropie de la source. J'expliquerais la signification et les implications pratiques de ce théorème, et je le démontrerais. J'expliquerais aussi comment on peut calculer efficacement des codes atteignant la borne minimum de l'entropie à l'aide des arbres de Huffman. Un texte grand public (sans les preuves mathématiques) est disponible sur le site Images des mathématiques Ressource en ligne et les programmes informatiques correspondants sont disponibles en ligne.

Notes :
Cette vidéo est sous la rubrique "Cycle de conférences pour les professeurs des classes préparatoires".
Exposé du 11 mai 2017 de Gabriel Peyré lors de la journée "Les mathématiques de l'information", organisée par le Département de mathématiques et applications (DMA) de l'ENS.
CultureMATH Ressource en ligne fait partie des Sites Ressources de la Direction de l'Enseignement Scolaire (DESCO) et des Ecoles Normales Supérieures.

Cet article est en libre accès sur le site CultureMATH

Mots clés :


© ADIREM-APMEP -2003- ISSN 1292-8054 Mise à jour 17/06/2021
Accueil Publimath  Aide à la recherche   Recherche Avancée   Imprimer la fiche   Aidez-nous à améliorer cette fiche  Vidéo d'aide
Certification IDDN Valid HTML 4.01 Transitional