<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Liste des cours du M1 on Master MIND - Sorbonne Université</title>
    <link>https://mind.sorbonne-universite.fr/cours/m1/</link>
    <description>Recent content in Liste des cours du M1 on Master MIND - Sorbonne Université</description>
    <generator>Hugo</generator>
    <language>fr</language>
    <lastBuildDate>Fri, 23 Jan 2026 13:08:40 +0100</lastBuildDate>
    <atom:link href="https://mind.sorbonne-universite.fr/cours/m1/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>MAPSI - Modèles et algorithmes probabilistes et statistiques pour l&#39;informatique</title>
      <link>https://mind.sorbonne-universite.fr/cours/m1/mapsi/</link>
      <pubDate>Mon, 01 Sep 2025 13:05:13 +0100</pubDate>
      <guid>https://mind.sorbonne-universite.fr/cours/m1/mapsi/</guid>
      <description>&lt;p&gt;Cette unité d’enseignement vise à présenter les éléments de&#xA;probabilités et de statistiques fondamentaux pour&#xA;l’informatique. Au-delà du simple objectif d’exposer les notions&#xA;classiques telles que les variables aléatoires, les moments ou les&#xA;grandes familles de distributions, l’UE a pour but de montrer&#xA;l’utilisation avancée de ces notions dans divers domaines de&#xA;l’informatique tels que la bioinformatique, l’intelligence&#xA;artificielle ou encore l’imagerie. Les techniques ainsi étudiées&#xA;(chaînes de Markov, etc.) seront illustrées sur des applications&#xA;provenant de ces différents domaines.&lt;/p&gt;&#xA;&lt;h2 id=&#34;responsable&#34;&gt;Responsable&lt;/h2&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;Pierre-Henri Wuillemin&lt;/li&gt;&#xA;&lt;li&gt;Raphaël Fournier-S&amp;rsquo;niehotta&lt;/li&gt;&#xA;&lt;/ul&gt;</description>
    </item>
    <item>
      <title>PMIND - Projet MIND</title>
      <link>https://mind.sorbonne-universite.fr/cours/m1/pmind/</link>
      <pubDate>Thu, 16 Jan 2025 17:45:04 +0100</pubDate>
      <guid>https://mind.sorbonne-universite.fr/cours/m1/pmind/</guid>
      <description>&lt;p&gt;Le projet MIND s’intéresse à la réalisation de bout en bout d’un projet de data&#xA;science. Il s’agit d’un travail effectué en binôme sous la supervision d’un⋅e&#xA;enseignant⋅e par groupe : le thème peut donc concerner n’importe quel aspect de&#xA;la spécialité. Le sujet précis peut porter sur des aspects théoriques,&#xA;applicatifs ou logiciels mais on veillera dans tous les cas à travailler sur des&#xA;données et à mettre en œuvre un protocole expérimental. Les étudiant⋅e⋅s&#xA;aborderont ainsi de façon pratique les sujets traités dans les autres cours et&#xA;s’initieront à la recherche bibliographique pour réaliser un état de l’art. Dans&#xA;certains cas les travaux peuvent conduire à une poursuite en stage voire même à&#xA;une publication scientifique. En fin de semestre, le projet se conclut par la&#xA;rédaction d’un rapport, la remise des code sources et une présentation orale.&lt;/p&gt;</description>
    </item>
    <item>
      <title>IDLE - Introduction au Deep Learning</title>
      <link>https://mind.sorbonne-universite.fr/cours/m1/idle/</link>
      <pubDate>Thu, 16 Jan 2025 17:44:17 +0100</pubDate>
      <guid>https://mind.sorbonne-universite.fr/cours/m1/idle/</guid>
      <description>&lt;p&gt;Cette UE vise à introduire les concepts fondamentaux du Deep Learning.&#xA;L’objectif est que les étudiants soient capables à terme d’entraîner et&#xA;manipuler des réseaux d’architectures classiques, d’analyser les courbes de&#xA;coûts et la convergence de l’apprentissage, et d’utiliser pour la prédiction les&#xA;modèles ainsi entraînés. Le cours passe en revue les concepts de base du Deep&#xA;Learning tels que la rétro-propagation, l’apprentissage en batch et les&#xA;architectures Multi-Layer Perceptron, convolutionnelles et récurrentes. Les&#xA;travaux pratiques permettent aux étudiants d’appréhender une plateforme de Deep&#xA;Learning telle que PyTorch et l’utilisation pratique des réseaux de neurones.&lt;/p&gt;</description>
    </item>
    <item>
      <title>SAM - Stockage et Accès aux Mégadonnées</title>
      <link>https://mind.sorbonne-universite.fr/cours/m1/sam/</link>
      <pubDate>Thu, 16 Jan 2025 17:43:23 +0100</pubDate>
      <guid>https://mind.sorbonne-universite.fr/cours/m1/sam/</guid>
      <description>&lt;p&gt;Cette UE aborde les architectures de SGBD répartis et des systèmes newSQL Les&#xA;thèmes suivants sont en particulier abordés : stockage et indexation de données&#xA;réparties, exécution et optimisation de requêtes réparties, réplication de&#xA;données et cohérence des répliques, transactions réparties et protocoles de&#xA;validation, principes des bases de données parallèles, jointures parallèles,&#xA;étude pratique des systèmes Dynamo DB, BigTable, Hbase, Calvin et Oracle NOSQL&#xA;KVStore.&lt;/p&gt;&#xA;&lt;p&gt;Le planning prévu est le suivant :&lt;/p&gt;&#xA;&lt;ul&gt;&#xA;&lt;li&gt;Cours 1 index non plaçant, composés, couvrants. Arbre B+&lt;/li&gt;&#xA;&lt;li&gt;TP1-2 index et persistence, index bitmap. TD: index composés&lt;/li&gt;&#xA;&lt;li&gt;Cours 2 : Hachage extensible et linéaire&lt;/li&gt;&#xA;&lt;li&gt;TP1-2 index et persistence, TD hachage&lt;/li&gt;&#xA;&lt;li&gt;Cours 3 : a) Index ART. b) LSM Tree Store&lt;/li&gt;&#xA;&lt;li&gt;TP3 LSM Tree Store, TD3: Exercice index ART avec compression de chemins. Exercice sur les BKD tree&lt;/li&gt;&#xA;&lt;li&gt;Cours 4 : implémentation et coût de opérateurs de jointure, tri externe&lt;/li&gt;&#xA;&lt;li&gt;TP4-5 plan d&amp;rsquo;exécution de requêtes, TD: jointure 2 entre relations&lt;/li&gt;&#xA;&lt;li&gt;Cours 5 : optimisation de requêtes, sélectivité des opérateurs de sélection et jointure&lt;/li&gt;&#xA;&lt;li&gt;TP4-5 plan d&amp;rsquo;exécution de requêtes, TD sur l&amp;rsquo;optim de requêtes, pseudo code des plans d&amp;rsquo;exécution&lt;/li&gt;&#xA;&lt;li&gt;Cours 6 : conception de BD réparties par fragmentation&lt;/li&gt;&#xA;&lt;li&gt;TP6 : ordre des jointures. TD : coût d&amp;rsquo;un plan d&amp;rsquo;exécution&lt;/li&gt;&#xA;&lt;li&gt;ER1&lt;/li&gt;&#xA;&lt;li&gt;Cours 7 : requêtes réparties&lt;/li&gt;&#xA;&lt;li&gt;TP7 : traitement de requêtes réparties. TD: requêtes réparties.&lt;/li&gt;&#xA;&lt;li&gt;Cours 8 : réplication et système Dynamo DB&lt;/li&gt;&#xA;&lt;li&gt;TP8-9 : Requêtes multi sites opendata, TD requêtes réparties avec JDBC&lt;/li&gt;&#xA;&lt;li&gt;Cours 9 : Transaction NewSQL et système Calvin&lt;/li&gt;&#xA;&lt;li&gt;TP8-9 : Requêtes multi sites opendata, TD transactions dans Calvin&lt;/li&gt;&#xA;&lt;li&gt;Cours 10: Vector Databases&lt;/li&gt;&#xA;&lt;li&gt;TP10 : séance de 4h pour le TP requêtes ANN + révisions&lt;/li&gt;&#xA;&lt;li&gt;ER2&lt;/li&gt;&#xA;&lt;/ul&gt;</description>
    </item>
    <item>
      <title>RITAL - Recherche d’Information et Traitement Automatique du Langage naturel</title>
      <link>https://mind.sorbonne-universite.fr/cours/m1/rital/</link>
      <pubDate>Thu, 16 Jan 2025 17:42:51 +0100</pubDate>
      <guid>https://mind.sorbonne-universite.fr/cours/m1/rital/</guid>
      <description>&lt;p&gt;Ce cours présente les grandes problématiques posées autour du traitement de&#xA;texte, et plus particulièrement pour la recherche d’information et le traitement&#xA;automatique du langage. L’objectif de ce cours est donc de présenter et&#xA;manipuler les principaux modèles pour analyser, synthétiser,&#xA;exploiter/interroger et produire des documents. La partie Traitement Automatique&#xA;du Langage Naturel se concentre sur la notion de sémantique des éléments du&#xA;textes (extraction de thèmes, représentations latentes et contextuelles, …). Les&#xA;modèles de classification et de fouille de texte (détection de sentiments, …)&#xA;ainsi que l’enrichissement des textes grâce aux bases de connaissances sont&#xA;également introduits. En recherche d’information, nous abordons les techniques&#xA;d’indexation et d’interrogation des documents nécessaires à la construction d’un&#xA;moteur de recherche. L’évaluation des modèles textuels est également un point&#xA;abordé. Pour chacune des deux parties, nous présentons les dernières avancées du&#xA;domaine sous l’angle du deep learning.&lt;/p&gt;</description>
    </item>
    <item>
      <title>IAMSI - Intelligence Artificielle et Manipulation Symbolique de l’Information</title>
      <link>https://mind.sorbonne-universite.fr/cours/m1/iamsi/</link>
      <pubDate>Thu, 16 Jan 2025 17:42:13 +0100</pubDate>
      <guid>https://mind.sorbonne-universite.fr/cours/m1/iamsi/</guid>
      <description>&lt;p&gt;Ce module vise à donner aux étudiants la maîtrise de diverses techniques d’IA et&#xA;de manipulation symbolique de l’information, en étudiant plusieurs formalismes&#xA;et types de tâches : il présente les algorithmes SAT modernes, au cœur des&#xA;solveurs utilisés dans de nombreux domaines et applications aussi bien en&#xA;recherche que dans l’industrie. Après une introduction aux principes des&#xA;systèmes à base de connaissances, il présente également la programmation ASP&#xA;(Answer Set Programming) qui permet de résoudre déclarativement de nombreux&#xA;problèmes. Il aborde ensuite les formalismes de représentation de l’action et du&#xA;changement et leur usage dans le cadre du « commensense reasoning », de la&#xA;causalité et de l’éthique, avant de présenter leurs applications en&#xA;planification à travers des algorithmes pratiques. Ce panorama des méthodes&#xA;symboliques en IA est complété par la présentation des approches d’apprentissage&#xA;symbolique comme la construction de règles d’association, avec une ouverture&#xA;vers des approches hybrides combinant connaissances symboliques et numériques.&lt;/p&gt;</description>
    </item>
    <item>
      <title>ML - Machine Learning</title>
      <link>https://mind.sorbonne-universite.fr/cours/m1/ml/</link>
      <pubDate>Thu, 16 Jan 2025 17:41:36 +0100</pubDate>
      <guid>https://mind.sorbonne-universite.fr/cours/m1/ml/</guid>
      <description>&lt;p&gt;Cette UE présente les concepts fondamentaux de l’apprentissage statistique et&#xA;les principaux modèles et algorithmes de ces dernières décades. Le cours aborde&#xA;la classification supervisée (Nadaraya-Watson, k-NN, modèles linéaires, SVMs,&#xA;bagging, boosting, &amp;hellip;), la classification non supervisée (clustering&#xA;hiérarchique, spectral, réduction de dimensions, méthodes variationnelles&amp;hellip;) et&#xA;une introduction à l’apprentissage par renforcement. Il vise à donner une&#xA;compréhension en profondeur du domaine autant d’un point de vue théorique que&#xA;appliqué. Les bases mathématiques nécessaires à la compréhension des approches&#xA;présentées sont également abordées (descente de gradient, optimisation&#xA;lagrangienne, méthodes à noyaux, factorisation de matrice, &amp;hellip;). Les travaux&#xA;dirigés permettent d’appréhender et de manipuler les concepts théoriques, les&#xA;travaux pratiques sont l’occasion d’implémenter les algorithmes étudiés ainsi&#xA;que de les expérimenter et d’analyser leurs forces et faiblesses.. Ils&#xA;permettent également de se familiariser avec les applications habituelles de&#xA;l’apprentissage statistique sur différents types de données (tabulaires,&#xA;structurées, séries temporelles, &amp;hellip;).&lt;/p&gt;</description>
    </item>
    <item>
      <title>LRC - Logique et Représentation des Connaissances</title>
      <link>https://mind.sorbonne-universite.fr/cours/m1/lrc/</link>
      <pubDate>Thu, 16 Jan 2025 17:40:55 +0100</pubDate>
      <guid>https://mind.sorbonne-universite.fr/cours/m1/lrc/</guid>
      <description>&lt;p&gt;L&amp;rsquo;objectif de ce cours est de présenter et de comparer différents modèles de&#xA;représentation logique des connaissances, en soulignant les compromis entre&#xA;expressivité et coût de calcul des raisonnements associés, questions cruciales&#xA;en intelligence artificielle, bases de données et web sémantique mais aussi&#xA;recherche opérationnelle ou spécification de programme par exemple. Différents&#xA;formalismes sont étudiés, pour différents types de données : logiques classiques&#xA;et de description, logiques modales, notamment épistémique, et logiques&#xA;temporelles et réseaux de Petri. Les méthodes de raisonnement associées sont&#xA;mises en œuvre dans les TME, incluant des variantes de l&amp;rsquo;algorithme tableau, le&#xA;langage de programmation PROLOG et des outils de manipulation des réseaux de&#xA;Petri par exemple.&lt;/p&gt;</description>
    </item>
    <item>
      <title>MLBDA - Modèles et Langages Bases de Données Avancées</title>
      <link>https://mind.sorbonne-universite.fr/cours/m1/mlbda/</link>
      <pubDate>Thu, 16 Jan 2025 17:39:58 +0100</pubDate>
      <guid>https://mind.sorbonne-universite.fr/cours/m1/mlbda/</guid>
      <description>&lt;p&gt;L’objectif de ce cours est de présenter et de comparer différents modèles de&#xA;données pour la représentation et l’interrogation de données complexes dans les&#xA;applications modernes comme les réseaux sociaux, réseaux de capteurs, l’open&#xA;data et le machine learning. En partant du modèle de données relationnelles, le&#xA;cours introduit le modèle relationnel-objet avec le langage SQL99, les&#xA;standards XML et JSON pour la modélisation d’informations semi-structurées et le&#xA;standard RDF pour la modélisation et l’interrogation de graphes de&#xA;connaissances. Les TD et TME illustrent et complètent le cours en mettant en&#xA;pratique les technologies associées.&lt;/p&gt;</description>
    </item>
    <item>
      <title>DALAS - DatA science, Learning and ApplicationS</title>
      <link>https://mind.sorbonne-universite.fr/cours/m1/dalas/</link>
      <pubDate>Thu, 16 Jan 2025 16:33:32 +0100</pubDate>
      <guid>https://mind.sorbonne-universite.fr/cours/m1/dalas/</guid>
      <description>&lt;p&gt;L’objectif de ce cours est de présenter toutes les étapes des sciences des&#xA;données qui permettent d’acquérir et traiter des données, d’extraire de&#xA;l’information et d’entraîner et évaluer des modèles d’apprentissage&#xA;statistiques. Nous aborderons les différents concepts autour du traitement des&#xA;données (scrapping, qualité des données, analyse exploratoire des données,&#xA;visualisation), du Machine Learning (apprentissage supervisé, non-supervisé), et&#xA;de la restitution (dashboard, storytelling). Ce cours accorde une très grande&#xA;importance aux aspects techniques et expérimentaux (interprétation, comparaison&#xA;et sélection de modèles, exploitation des résultats, analyse de biais), moins&#xA;aux aspects théoriques. Ce cours permet d’acquérir les outils fondamentaux et&#xA;les bonnes pratiques en science des données et en apprentissage machine.&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
