====== Analyse, classification, indexation de données ====== **Responsable** : [[akka.zemmari@u-bordeaux.fr|Akka Zemmari]] **Chargés de TD** : * Groupe 1 Info (mercredi 10h15-12h15) : [[jean-philippe.domenger@labri.fr|Jean-Philippe Domenger]] * Groupe 2 Info (jeudi 8h-10h) : [[luc.pomme-cassierou@u-bordeaux.fr|Luc Pomme-Cassierou]] * Groupe 3 Info + CMI Optim (lundi 8h-10h) : [[yasloudj@u-bordeaux.fr|Yanis Asloudj]] * Groupe 4 Info (jeudi 10h15-12h15): [[anne.vialard@u-bordeaux.fr| Anne Vialard]] * Groupe 5 Info (mercredi 16h15-18h15): [[|Guillaume Lagarde]] * Groupe CSI + CMI ISI (mardi 14h-16h): [[luc.pomme-cassierou@u-bordeaux.fr|Luc Pomme-Cassierou]] ===== Supports de cours ===== ^ Séance ^ Intitulé ^ Description ^ Diapos ^ Autre ^ | 1 | Avant propos | Présentation de l'UE | {{:acid-avant_propos.pdf|pdf}} | | | 1 - 4 | Introduction | Généralités sur le Machine Learning |{{:acid-introduction.pdf| pdf}}| | | 1 - 2 | Rappels | Rappels d'algèbre linéaire |{{:acid-rappels-algebre_lineaire.pdf| pdf}}| [[https://www.labri.fr/~zemmari/acid/notebooks/cours_1-numpy.ipynb|Jupiter notebook (NumPy)]] | | | | Rappels de probabilités et statistiques |{{:acid-rappels-probas.pdf| pdf}}| [[https://www.labri.fr/~zemmari/acid/notebooks/cours_1-random_scipy.ipynb|Jupiter notebook (SciPy)]] | | 2 | Méthodes d'optimisation | Descente de gradient (et ses variantes) | {{:acid-descente_de_gradient.pdf|pdf}} | [[https://www.labri.fr/~zemmari/acid/notebooks/acid-descente_de_gradient.ipynb|Jupiter notebook]], [[https://www.labri.fr/~zemmari/acid/notebooks/acid-descente_de_gradient.html|notebook (en html)]]| | 2 - 3 | Régression | Régression simple et multiple | {{:acid-regression_lineaire.pdf| pdf}} | Jupyter notebooks : | | | | | | [[https://www.labri.fr/~zemmari/acid/notebooks/acid-regression_lineaire_simple.ipynb|régression simple (1)]], [[https://www.labri.fr/~zemmari/acid/notebooks/acid-regression_lineaire_simple.html|notebook (html)]]| | | | | | [[https://www.labri.fr/~zemmari/acid/notebooks/acid-regression_lineaire_simple-2.ipynb|régression simple (2)]], [[https://www.labri.fr/~zemmari/acid/notebooks/acid-regression_lineaire_simple-2.html|notebook (html)]]| | | | | | [[https://www.labri.fr/~zemmari/acid/notebooks/acid-regression_lineaire_multiple.ipynb|régression multiple]], [[https://www.labri.fr/~zemmari/acid/notebooks/acid-regression_lineaire_multiple.html|notebook (html)]]| | | | | | [[https://www.labri.fr/~zemmari/acid/files/advertising.csv|Fichier advertising.csv]]| | | | | | [[https://www.labri.fr/~zemmari/acid/files/food_truck.csv|Fichier food truck.csv]]| | 4 | k-nearest neighbors | Généralités sur le ML, k-NN| {{:acid-knn.pdf| pdf}} | knn (à la main) [[https://www.labri.fr/~zemmari/acid/notebooks/acid-knn-from_scratch.ipynb|Jupiter notebook]], [[https://www.labri.fr/~zemmari/acid/notebooks/acid-knn-from_scratch.html|Jupiter notebook (html)]]| | | | | | knn (avec skleanr) [[https://www.labri.fr/~zemmari/acid/notebooks/acid-knn.ipynb|Jupiter notebook]], [[https://www.labri.fr/~zemmari/acid/notebooks/acid-knn.html|Jupiter notebook (html)]]| | 5 | Apprentissage supervisé | Théorie de décision markovienne | {{:acid-bayes.pdf| pdf}} | [[https://www.labri.fr/~zemmari/acid/notebooks/acid-bayes.ipynb|Jupiter notebook]], [[https://www.labri.fr/~zemmari/acid/notebooks/acid-bayes.html|Jupiter notebook (html)]] | | 6-7 | Réduction de dimension | Analyse en composantes principales | {{:acid-acp.pdf| pdf}} | [[https://www.labri.fr/~zemmari/acid/notebooks/acid-acp.html|Jupiter notebook (html)]] | | | | | | [[https://www.labri.fr/~zemmari/acid/notebooks/acid-acp_sklearn.html|Jupiter notebook (html), sklearn (applications)]] | | | | | | {{:preuve-acp.pdf| preuve ACP}} | | 8 | Contrôle de connaissances| Contrôle | | | | 9 | Réduction de dimension | Analyse linéaire discriminante (LDA) | {{:acid-lda.pdf| pdf}} | [[https://www.labri.fr/~zemmari/acid/notebooks/cours8-comparaison-ACP-LDA.ipynb|Jupiter notebook (comparaison avec l'ACP)]] | | | | | | [[https://www.labri.fr/~zemmari/acid/notebooks/lda.ipynb|Jupiter notebook (LDA à la main)]] | | 10 | Apprentissage supervisé | Arbres de décision et forêts aléatoires | {{:acid-dt_rf.pdf| pdf}} | [[https://www.labri.fr/~zemmari/acid/notebooks/cours9_td_rf.ipynb|Jupiter notebook]] | | 11 | Apprentissage supervisé | Perceptron, SVM, etc | {{:acid-perceptron_svm.pdf| pdf}} | [[https://www.labri.fr/~zemmari/acid/notebooks/acid-perceptron-a_la_main.html|perceptron (à la main), Jupiter notebook (html)]] | | | | | | [[https://www.labri.fr/~zemmari/acid/notebooks/acid-svm_kernel.html|svm, kernel trick, Jupiter notebook (html)]] | | | | | | [[https://www.labri.fr/~zemmari/acid/notebooks/acid-svm_perceptron.html|perceptron, svm, avec sklearn, Jupiter notebook (html)]] | | 12 | Apprentissage non supervisé| Méthodes de clustering | {{:acid-unsupervised_ml.pdf| pdf}} | | ===== Supports de travaux dirigés ===== ^ TD numéro ^ Contenu ^ Énoncé ^ Fichiers ^ Corrigé ^ | TD0 | Rappels : Probabilités et statistiques, Algèbre linéaire avec Python | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td01/td01.ipynb|Sujet]] | | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td01/td01-correction.ipynb|Correction]]| | TD1 | Métriques d'évaluation| [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td01/td01_metrics.ipynb|Sujet]] | | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td01/td01_metrics-correction.ipynb|Correction]] | | TD2 | Descente de gradient | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td02/td02_gradient_descent.ipynb|Sujet]]| | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td02/td02_gradient_descent-correction.ipynb|Correction]] | | TD3 | Régression linéaire |[[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td03/td03_regression.ipynb|Sujet]]| | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td03/td_3-regression_corrige.ipynb|Correction]]| | TD4 | Apprentissage supervisé : k-nn | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td04/td04_knn.ipynb|Sujet]]| | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td04/td04_knn-corrige.ipynb|Correction]]| | TD5 | Théorie de décision Bayésienne | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td05/td05_bayes.ipynb|Sujet]]| | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td05/td05_corrige.ipynb|Correction]]| | TD6 | Réduction de dimension (ACP) | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td06/td06_acp.ipynb | Sujet]]| | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td06/td6_corrige.ipynb|Correction]]| | TD7 | Réduction de dimension (LDA) | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td07/td07_lda.ipynb | Sujet]]| | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td07/td7_corrige.ipynb|Correction]]| | TD8 | Apprentissage supervisé : Arbres de décision et Forêts aléatoires | [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td08/td08_decision-tree.ipynb | Sujet]]| |[[https://amoreauv.pages.emi.u-bordeaux.fr/acid/td08/td8_corrige.ipynb|Correction]] | ===== (Mini) projet ===== Ce travail est à réaliser en binôme et à rendre avant le 22 décembre 2023 [[https://amoreauv.pages.emi.u-bordeaux.fr/acid/projet/miniprojet_sujet.ipynb|Sujet]] Le rendu se fait sur le cours moodle : [[https://moodle.u-bordeaux.fr/course/view.php?id=12165]] ===== Annales ===== * [[http://www.labri.fr/~zemmari/acid/annales/examen22.pdf|Examen 2022-2023]] * [[http://www.labri.fr/~zemmari/acid/annales/examen21.pdf|Examen 2021-2022]] * [[http://www.labri.fr/~zemmari/acid/annales/ds22.pdf|DS 2022-2023]] * {{acid:mini_projet.pdf | Mini projet 2022 - 2023}} * {{:mini_projet.pdf|Mini projet 2021-2022}} * [[http://dept-info.labri.fr/~vialard/ACID/Annales/ds21.pdf|DS 2021-2022]] * [[http://dept-info.labri.fr/~vialard/ACID/Annales/ds19.pdf|DS 2019-2020]] * [[http://dept-info.labri.fr/~vialard/ACID/Annales/ACID-19.pdf|Examen 2019-2020]] * [[http://dept-info.labri.fr/~vialard/ACID/Annales/ACID-2017.pdf|Examen 2017]] * [[http://dept-info.labri.fr/~vialard/ACID/Annales/ACID-2016.pdf| Examen 2016]]