Accueil Publimath  Aide à la recherche   Recherche Avancée   Imprimer la fiche   Aidez-nous à améliorer cette fiche  Vidéo d'aide
Certification IDDN Valid HTML 4.01 Transitional
Auteur(s) : Chenciner Alain

Titre : CultureMATH. La naissance de la théorie de l'information ou la force d'une idée simple.

Editeur : CultureMATH - ENS Ulm Paris, 2017

Type : film, vidéo Langue : Français Support : internet

Public visé : enseignant Niveau Niveau scolaire visé par l'article : licence Age : 18, 19, 20

Classification : D45Histoire et épistémologie des mathématiques à partir du 19e siècle.
Enseignement supérieur
 D49Histoire et épistémologie des mathématiques à partir du 19e siècle.
Formation à l'enseignement, initiale et continue.
 D55Histoire et épistémologie des disciplines connexes
Enseignement supérieur
 D59Histoire et épistémologie des disciplines connexes
Formation à l'enseignement, initiale et continue.
 P25Informatique théorique (structuration des données, codage des données, théorie du codage et de l'information, analyse des algorithmes et problèmes de complexité, modes de calcul et complexité calculatoire, langages formels)
Enseignement supérieur
 P29Informatique théorique (structuration des données, codage des données, théorie du codage et de l'information, analyse des algorithmes et problèmes de complexité, modes de calcul et complexité calculatoire, langages formels)
Formation à l'enseignement, initiale et continue.
 U85Utilisation des médias audiovisuels (radiodiffusion, télévision, internet, diaporamas, films, vidéos, etc.)
Enseignement supérieur
 U89Utilisation des médias audiovisuels (radiodiffusion, télévision, internet, diaporamas, films, vidéos, etc.)
Formation à l'enseignement, initiale et continue.
 

Résumé :

De nombreuses fautes de frappe n'empêchent pas de reconnaître sans ambiguïté un texte pourvu que la forme altérée ressemble plus au texte initial qu'à tout autre texte admissible. Jointe à une utilisation systématique de la loi des grands nombres qui implique la propriété d'équipartition asymptotique (AEP), cette simple remarque est à la base de la découverte par Claude Shannon de la limite H < C aux performances de tout code correcteur permettant une transmission fiable d'information par un canal “bruité” (i.e. faisant des erreurs) ainsi que de l'existence d'un code permettant d'approcher arbitrairement près de cette limite qui, restée longtemps virtuelle, est pratiquement atteinte aujourd'hui par les turbocodes. Toutes deux de nature probabiliste, l'entropie H d'une source de messages et la capacité C d'un canal de transmission sont définies par Shannon dans l'article qu'il publie en 1948 dans la revue des “Bell labs”, l'année même où, dans les mêmes Bell labs, JohnBardeen, Walter Brattain et William Shockley font la première démonstration du fonctionnement d'un transistor. Ainsi, des deux découvertes simultanées dont est né le monde d'information dans lequel nous vivons, l'une est de pure mathématique et même de la pire espèce, un théorème d'existence !

Notes :
Cette vidéo est sous la rubrique "Cycle de conférences pour les professeurs des classes préparatoires".
Exposé du 11 mai 2017 de Alain Chenciner lors de la journée "Les mathématiques de l'information", organisée par le Département de mathématiques et applications (DMA) de l'ENS.
CultureMATH Ressource en ligne fait partie des Sites Ressources de la Direction de l'Enseignement Scolaire (DESCO) et des Ecoles Normales Supérieures.

Cet article est en libre accès sur le site CultureMATH

Mots clés :


© ADIREM-APMEP -2003- ISSN 1292-8054 Mise à jour 17/06/2021
Accueil Publimath  Aide à la recherche   Recherche Avancée   Imprimer la fiche   Aidez-nous à améliorer cette fiche  Vidéo d'aide
Certification IDDN Valid HTML 4.01 Transitional