1. Livres & vidéos
  2. Data Scientist et langage R - IA, Machine Learning et Statistiques, Forecast, Tenseur, Gradient, Pytorch, Keras, CNN, LLM, GPT, RAG… (4e édition)

Data Scientist et langage R IA, Machine Learning et Statistiques, Forecast, Tenseur, Gradient, Pytorch, Keras, CNN, LLM, GPT, RAG… (4e édition)

Informations

Livraison possible dès le 08 décembre 2025
  • Livraison à partir de 0,01 €
  • Version en ligne offerte pendant 1 an
  • Livres rédigés par des auteurs francophones et imprimés à Nantes

Informations

  • Consultable en ligne immédiatement après validation du paiement et pour une durée de 10 ans.
  • Version HTML
  • Livres rédigés par des auteurs francophones et imprimés à Nantes

Les points forts du livre :

  • Maîtrise avancée du langage R appliqué à la Data Science et au Machine Learning
  • Intégration efficace de R et Python pour des pipelines de data science unifiés
  • Exploration avancée de l’IA générative, des modèles LLM et des techniques de pointe comme le RAG
Consulter des extraits du livre en ligne Aperçu de la version papier
  • Niveau Expert
  • Nombre de pages 885 pages
  • Parution août 2025
  • Niveau Expert
  • Parution août 2025

Ce guide complet sur la Data Science vous plonge dans un univers passionnant : langage R, réseaux neuronaux, IA générative, outils incontournables du machine learning et du deep learning sont autant de sujets qui vous permettront de devenir promoteurs d’innovations dans votre organisation.

Clair et progressif, ce guide accompagne aussi bien les professionnels souhaitant approfondir leurs compétences que les managers désireux de mieux comprendre les enjeux de la data science, sans tomber dans l’excès de formalisme. Cette quatrième édition, entièrement repensée, propose une exploration progressive des concepts clés.

Vous commencerez par découvrir le langage R, ses liens étroits avec les statistiques et le machine learning, avant d’approfondir les réseaux neuronaux et l’intelligence artificielle générative.

Vous apprendrez à utiliser – et même à améliorer localement – vos propres modèles LLM (comme les GPT) grâce aux techniques modernes telles que le RAG et les agents intelligents.

Les auteurs proposent une approche multiplateforme R/Python à travers des frameworks communs et puissants :

Shiny pour créer des applications web de data science ;

ggplot2 pour des visualisations de haute qualité ;

igraph pour l’analyse de graphes ;

NLTK pour le traitement du langage naturel ;

PyTorch, Keras et TensorFlow pour le deep learning.

Vous découvrirez également comment intégrer R et Python dans une même application et manipuler les données de manière cohérente d’un langage à l’autre.

Les bases mathématiques sont présentées de manière claire et accessible, permettant de comprendre les notations des publications scientifiques, les manipulations tensorielles en PyTorch ou encore les calculs différentiels via le package Pracma (R) qui clone les fonctions de Matlab.

L’ouvrage traite enfin de sujets avancés : séries temporelles, logique floue, traitement d’images, inférence spatio-temporelle et NLP.

 

Caractéristiques

  • Livre (broché) - 17 x 21 cm
  • ISBN : 978-2-409-05074-9
  • EAN : 9782409050749
  • Ref. ENI : EP4DASR

Caractéristiques

  • HTML
  • ISBN : 978-2-409-05075-6
  • EAN : 9782409050756
  • Ref. ENI : LNEP4DASR

Téléchargements

Introduction
  1. Introduction
  2. Contenu de l’ouvrage
  3. Codes et solutions techniques présentées
Premiers pas avec R
  1. Installation des composants
    1. 1. Installation et lancement de R
    2. 2. Installation et lancement de RStudio
    3. 3. Installation de nouveaux packages
    4. 4. Installation de packages : compléments
  2. Prise en main de R
    1. 1. R, une calculatrice efficace
    2. 2. R, un langage vectorisé
    3. 3. Fonctions agissant sur des vectors
      1. a. Une première analyse rapide des données
      2. b. Quelques statistiques simples sur les vectors
      3. c. Trier un vector
      4. d. Diverses fonctions avec somme, produit, min et max
    4. 4. Types de données simples
      1. a. Les booléens
      2. b. Les ensembles
      3. c. Les listes
      4. d. Les facteurs
      5. e. Les tableaux
    5. 5. Les fonctions
      1. a. Création et utilisation d’une fonction simple
      2. b. Création d’un opérateur à partird’une fonction de deux variables
      3. c. Usage des fonctions et portée des variables
      4. d. Application des fonctions sur les matrices :apply
      5. e. Compléments utiles
    6. 6. Structures de contrôle
      1. a. Des instructions communes avec d’autres langages
      2. b. Parcourir une matrice via des boucles for
    7. 7. Les chaînes de caractères
    8. 8. Le formatage des nombres
    9. 9. Les dates et les temps
    10. 10. Mesure de la durée d’un algorithme
    11. 11. Les nombres complexes
      1. a. Manipulations de base des nombres complexes
      2. b. Visualisation de nombres complexes
    12. 12. Programmation orientée objet
      1. a. Classes et objets, en bref
      2. b. Constructeurs
      3. c. Héritage
      4. d. Objets mutables
      5. e. Gestion de pile : implémentationorientée objet avec RC
  3. Manipulation des données
    1. 1. Lecture des données : les bases
    2. 2. Manipulation des colonnes d’un data.frame
    3. 3. Calculs simples sur un data.frame
      1. a. Calculs sur les colonnes et les lignes
      2. b. Manipulation des lignes
      3. c. Application : comparaison effectifs de classeset Khi-2
      4. d. Création de colonnes calculées
      5. e. Tri d’un data.frame via order()
Machine Learning
  1. Petit bestiaire de la Data Science
    1. 1. Les fondamentaux
      1. a. Apprentissage et classification
      2. b. Petit vocabulaire graphique du Machine Learning
      3. c. Régressions, formulations mathématiquessimplifiées
      4. d. Régression linéaire généralisée
      5. e. Arbres de décision, pruning, élagage
      6. f. Clustering, k-means
      7. g. k-NN
      8. h. Modèles paramétriques
      9. i. Lazy algorithm (algorithme paresseux)
      10. j. Overfitting : sur-détermination,sur-apprentissage
      11. k. Validation croisée, régularisation,bagging
      12. l. Optimisation, méthode du gradient
      13. m. Algorithme glouton (greedy algorithm)
      14. n. Programmation linéaire, simplexe, point intérieur
      15. o. Estimation via la méthode de Monte-Carlo
      16. p. Entropie, indépendance et information mutuelle
      17. q. Discrétisation
    2. 2. Méthodes "ensemble"
      1. a. Random forest
      2. b. AdaBoost (adaptative boosting)
    3. 3. Lois de probabilité et distribution
      1. a. Généralités
      2. b. Petit bestiaire des lois de probabilité
    4. 4. Les graphes
      1. a. Introduction à l’univers des graphes
      2. b. Notions importantes à assimiler au sujetdes graphes
  2. Notations mathématiques usuelles en Data Science
    1. 1. Notations des paramètres
    2. 2. Autres notations
      1. a. Fonctions et applications… f(x), d(x,y)…
      2. b. Quelques confusions possibles
      3. c. Notations ayant trait aux opérations entrevecteurs
  3. Création de notre premier modèle ML
    1. 1. Analyse statistique et visuelle des données
      1. a. Visualisation globale
      2. b. Visualisation des variables numériques 2 à 2avec mention des classes
      3. c. Corrélations entre variables numériques
      4. d. Séparation par classe, utilisation de ggplot2et qplot
      5. e. Visualisation 3D, relation entre trois variables numériques
      6. f. Graphiques par paires
    2. 2. Nettoyage des données
    3. 3. Choix empirique du type de modèle à entraîner
    4. 4. Mise au point d’un modèle
    5. 5. Interprétation et qualification du modèle
      1. a. Lecture de l’arbre
      2. b. Matrice de confusion et accuracy
  4. Recettes de représentation graphique des données
    1. 1. De l’usage d’une grammaire graphique
    2. 2. Histogrammes évolués
      1. a. Distribution multiclasse
      2. b. Mixture de plusieurs distributions par classe
      3. c. Visualisation de la densité d’une distribution
      4. d. Une autre mixture par classe
      5. e. Une variable, mais un histogramme pour chaque classe
      6. f. Graphique avec une densité par classe
    3. 3. Diagramme par paires et à facettes
      1. a. Diagramme par paires, version simple
      2. b. Classes en configuration XOR
      3. c. Diagramme par paires avec "factors"
      4. d. Facettes et échelle logarithmique
  5. Prise en compte de données et faits entachés d’incertitudes
    1. 1. Quelques notions fondatrices
      1. a. Phénomène aléatoire
      2. b. Probabilité, variable aléatoireet distribution
      3. c. Un peu de mathématiques : notationset définitions utiles en probabilité
      4. d. Moments d’une variable aléatoire discrèteX
      5. e. Premières considérations sur leserreurs et estimations
    2. 2. Se familiariser avec ses données
  6. Matrices et vecteurs, au cœur du Machine Learning
    1. 1. Conventions, notations, utilisations basiques
    2. 2. Matrices, vecteurs : vers une introduction à lanotion d’apprentissage supervisé
    3. 3. Plus loin dans la manipulation des matrices avec R
      1. a. Opérations basiques
      2. b. Quelques savoir-faire utiles sur les matrices de R
      3. c. Normes de vecteurs et normes de matrices
      4. d. Matrices et vecteurs : diverses syntaxesutiles
  7. Estimation et inférence
    1. 1. Positionnement du problème d’estimation
      1. a. Formulation générale du problème
      2. b. Application et reformulation du problèmed’estimation
    2. 2. Les indicateurs d’écart utilisésen Machine Learning
      1. a. MSE, RMSE, SSE, SST
      2. b. MAE, ME
      3. c. NRMSE/NRMSD, CV_RMSE
      4. d. SDR
      5. e. Accuracy, R2
  8. Mise en pratique : apprentissage supervisé
    1. 1. Préparation
    2. 2. Tester des hypothèses, p_value
      1. a. Analyse graphique interactive avec iplots
      2. b. Test de Breusch-Pagan et zoom sur p_value
    3. 3. Création d’un modèle (régressionlinéaire multiple)
    4. 4. Établissement d’une prédiction
    5. 5. Étude des résultats et représentationsgraphiques
    6. 6. Indicateurs courants - calculs
    7. 7. Étude du modèle linéairegénéré
    8. 8. Discussion autour de notre modèle linéaire
    9. 9. Utilisation d’un modèle "Random Forest"
  9. Vers l’expertise en Machine Learning conventionnel
    1. 1. Parcours théorique accéléré
      1. a. Linéarité
      2. b. Erreurs in et out, notion de VC dimension
      3. c. Hyperplans, séparabilité avec marges
      4. d. Kernel Trick, noyaux, transformations, feature space
      5. e. Problèmes de la régression :introduction à la régularisation
    2. 2. Vers une pratique mature du Machine Learning
      1. a. Cross validation : k-fold CV
      2. b. Naive Bayes
      3. c. C4.5 et C5.0
      4. d. Mise au point d’un modèle de classificationmulticlasses
      5. e. Support Vector Machines (SVM)
      6. f. Clusterisation, k-means
    3. 3. Tracer une courbe ROC
    4. 4. GAM : généralisation deLM/GLM
Feature engineering pour le Machine Learning
  1. Travaux préliminaires sur les données
  2. Appréhension directe et rapide d’un dataset
  3. Analyse de la conformation des distributions par rapport à la loi normale
  4. Dépendance linéaire entre variables
  5. Mise en évidence de différences sur les distributions
  6. Points étrangers
  7. Tris et agrégats
    1. 1. Tris automatisés
    2. 2. Calculs sur les agrégats
    3. 3. Extraction, pivot et tri rapide de donnéesd’un dataframe
    4. 4. Utilisation des jointures
      1. a. Enrichissement d’un dataframe par une jointure
      2. b. Jointures pour décodage ou transformation- ex. : factor to integer
    5. 5. Applications de fonctions variables sur les données
    6. 6. Compléments en matière de métaprogrammation
      1. a. Quoting appliqué aux graphiques
      2. b. Définition d’une macro
  8. Feature Engineering et Data Science
    1. 1. Positionnement du problème
    2. 2. Ce sur quoi il faut être très attentif
      1. a. La qualité de la distribution
      2. b. La nature des features
    3. 3. Maîtriser la dimensionnalité
    4. 4. Une solution éprouvée :la PCA
    5. 5. Un exemple simple d’utilisation de la PCA
  9. PCA classique, éléments mathématiques
    1. 1. Les valeurs inconnues et les features mal conditionnées
    2. 2. Création de nouvelles features
  10. Réduction des données (data reduction)
  11. Réduction de la dimensionnalité et entropie
    1. 1. Description théorique du problème
    2. 2. Implémentation en R et discussion
R et Python
  1. Une polémique stérile, mais une vraie question : R ou Python ?
  2. Exemples de codes R et Python comparables
    1. 1. Codes triviaux
    2. 2. Packages
    3. 3. Fonctions simples
    4. 4. Structures de données
    5. 5. Booléens
    6. 6. Programmation de base
    7. 7. Création de fonctions
    8. 8. Blocs et indentation
    9. 9. Datasets
  3. Accéder à Python à partir de R
    1. 1. Installation et initialisation du contexte technique
    2. 2. Interactions R et Python, du point de vue R
      1. a. Partage de variables et exécution de codePython dans le biotope R
      2. b. Librairies Python dans du code R, exemples NLP
  4. Considérations sur les cas difficiles
Business intelligence avec Shiny
  1. Introduction
  2. Créer sa première application Shiny
    1. 1. Introduction
    2. 2. Installation dans RStudio et préambule
    3. 3. Organisation des fichiers de l’application
    4. 4. Syntaxe des inputs et outputs
    5. 5. Mise en page et organisation visuelle du contenu
    6. 6. Modifier le thème de l’application
    7. 7. Générer l’application
    8. 8. Déployer l’application sur le Web
    9. 9. Shiny Dashboard
Prédire une série temporelle
  1. Introduction
    1. 1. Introduction aux séries temporelles
    2. 2. Modèle stationnaire
      1. a. Processus stationnaire : les bases
      2. b. Processus autorégressif AR : allerplus loin
      3. c. Considérations (très) utiles
    3. 3. Processus non stationnaires
      1. a. Le modèle ARIMA
      2. b. Processus saisonniers : SARIMA
      3. c. Modèles ARCH et GARCH
      4. d. Convolution et filtres linéaires
    4. 4. Mise en pratique
      1. a. Les bases de la manipulation des séries temporellesen R
      2. b. Étude de séries temporelles
      3. c. Prédictions sur ARIMA (AR MA SARIMA)
    5. 5. Mini-bestiaire ARIMA
  2. Gestion des dates informatiques
  3. Co-intégration de données économiques
Géospatial et Machine Learning
  1. Pourquoi étudier les représentations cartographiques ?
  2. Accéder à l’information géographique
  3. Création de cartes statiques avec R
  4. Création de cartes dynamiques avec R
  5. Données spatiales, gradient, laplacien et convolution
    1. 1. Préliminaire, créer un échantillon :LHS (hypercube latin)
    2. 2. Travailler sur des données spatiales
      1. a. Champ et variable régionalisée
      2. b. Calcul d’un gradient en dimension 3
      3. c. Introduction au calcul numérique du Laplacienet des convolutions
    3. 3. Détermination d’un variogramme
  6. Krigeage (kriging)
    1. 1. La théorie, en bref
    2. 2. Implémentation en R, utilisant un algorithmegénétique pour l’optimisation
Feature engineering des images
  1. Manipulation d'images dans le cadre d’une Machine Learning
    1. 1. Création, visualisation, lecture et écritured’images
    2. 2. Transformation des images
      1. a. Exemples de manipulation de la couleur et des intensités
      2. b. Exemples de manipulation de la géométriede l’image
      3. c. Application de filtres sur les images
Mathématiques pour l’IA
  1. Introduction
  2. Notations et vocabulaire mathématiques importants pour l’IA
    1. 1. Vecteurs
    2. 2. Normes d’un vecteur
    3. 3. Distance issue d’une norme
    4. 4. Indices et convention d’Einstein
    5. 5. Produit scalaire
      1. a. Notations du produit scalaire
      2. b. Norme naturelle issue d’un produit scalaire
    6. 6. Les matrices
      1. a. Rappels sur le produit de matrices
      2. b. Transformation d’un vecteur par une matrice
    7. 7. Forme linéaire
    8. 8. Application multilinéaire
      1. a. Formulation théorique : multilinéarité vstenseurs
      2. b. Exemple numérique d’une contractiondébouchant sur un scalaire
    9. 9. Changement de base
    10. 10. Tenseurs covariants et contravariants
    11. 11. Vocabulaire de la différentiation
    12. 12. Méthode d’optimisation utilisantle gradient
  3. Taxonomie des tâches de Machine Learning courantes, loss et métriques associées
    1. 1. Tâches générales de MachineLearning
      1. a. Régression
      2. b. Classification
    2. 2. Tâches liées aux donnéesmultimédias (images, sons, vidéos)
      1. a. Classification d’images
      2. b. Détection d’objets
      3. c. Segmentation sémantique
      4. d. Détection de visages
      5. e. Reconnaissance faciale
      6. f. Génération d’images
    3. 3. Tâches liées aux donnéestextuelles
      1. a. Tâches NLP (Natural Language Processing)"classiques"
      2. b. Tâches NLP lors de la mise au point de vospropres modèles
    4. 4. Tâches liées aux donnéestemporelles
  4. Calculs numériques dans l’esprit Matlab
    1. 1. Considérations pratiques
    2. 2. Un aperçu de la précision de notremachine
    3. 3. Un package possédant les mêmes instructionsque Matlab
    4. 4. Quelques compléments sur les complexes
    5. 5. Quelques compléments sur les matrices
      1. a. Création de matrices basiques
      2. b. Création de matrices de nombres aléatoires
      3. c. Calculs sur les matrices d’entiers
  5. Un peu d’algèbre linéaire opérationnelle
    1. 1. Exemple de création d’une base orthonormale
    2. 2. Projection sur un sous-espace vectoriel
  6. Fonctions et systèmes d’équations, 1 à n variables
    1. 1. Fonctions d’une variable
      1. a. Exploration de divers tracés
      2. b. Autour des racines d’une fonction
    2. 2. Fonctions de plusieurs variables
      1. a. Représentation d’une fonction réellede deux variables réelles
      2. b. Recherche de minima d’une fonction en deuxdimensions
    3. 3. Systèmes d’équations nondifférentielles, linéaires ou non
      1. a. Système d’équations linéaires
      2. b. Système d’équations nonlinéaires non différentielles, n = m
  7. Dérivation de fonctions
    1. 1. Dérivée symbolique et numériqueavec R-base
    2. 2. Dérivées en utilisant des packagesspécifiques
    3. 3. Dérivée de fonctions spéciales
  8. Autour de l’intégration
    1. 1. Calcul d’une intégrale multiple
    2. 2. Autres intégrales, dont intégraleimpropre
  9. Fonctions spéciales et équations différentielles
    1. 1. Autres fonctions spéciales
      1. a. Fonctions d’Airy et de Bessel
      2. b. La fonction d’erreur erf
    2. 2. Équation différentielle ordinairenormalisée d’ordre 1
    3. 3. Équation différentielle du seconddegré (problème aux limites)
      1. a. EQD linéaire (2nd degré)
      2. b. EQD non linéaire (2nd degré)
  10. Éléments pratiques de calcul différentiel
    1. 1. Fonctions réelles d’un réel
    2. 2. Fonctions réelles d’un vecteur
      1. a. Calcul des dérivées partielles
      2. b. Calculs d’opérateurs utilisant lesdérivées partielles
    3. 3. Fonctions vectorielles d’un vecteur
Réseaux neuronaux et Gradient Boosting
  1. Réseau neuronal - premiers pas vers le Deep Learning
    1. 1. Introduction aux réseaux neuronaux
      1. a. Composition de fonction
      2. b. Description succincte d’un modèleNN de classification
      3. c. Backpropagation et règle de composition desdifférentielles
      4. d. Réduction de l’overfitting du NN
      5. e. Définir la sortie du modèle - softmax
      6. f. Évaluation du modèle
      7. g. Utilisation du modèle instancié
    2. 2. Création d’un réseau neuronalde classification binaire
  2. Gradient Boosting et Generalized Boosted Regression
    1. 1. Les grands principes
    2. 2. Les paramètres et les usages du package GBM
      1. a. Covariance
      2. b. Loss
      3. c. Optimisation de l’algorithme
    3. 3. Mise en pratique
Deep Learning avec PyTorch ou Keras/TensorFlow
  1. Considérations préliminaires sur l’utilité d’un framework puissant comme PyTorch ou TensorFlow
    1. 1. Croissance rapide du coût de l’entraînementdes modèles du Deep Learning
    2. 2. Formats de nombres optimisés pour l’IA
    3. 3. Deux frameworks puissants à notre disposition
  2. Présentation de PyTorch dans l’environnement R
  3. PyTorch en Python versus sa version R (torch/R)
  4. Opérations tensorielles fondamentales, illustrées avec torch
    1. 1. Création d’un tenseur
    2. 2. Indexation
    3. 3. Matrice identité
    4. 4. Rename (renommer les dimensions)
    5. 5. Matrice nulle
    6. 6. Matrice diagonale
    7. 7. Slicing (tranchage)
    8. 8. Reshape (changement de forme)
    9. 9. Transpose (transposition)
    10. 10. Permute (permutation des dimensions)
    11. 11. Expand (diffusion/broadcast)
    12. 12. Concat (concaténation)
    13. 13. Stack (empilement)
    14. 14. Flip (inversion)
    15. 15. Roll (décalage circulaire)
    16. 16. Split (découpage)
    17. 17. Squeeze/unsqueeze
    18. 18. Flatten (aplatissement)
    19. 19. Sum (somme)
    20. 20. Mean (moyenne)
    21. 21. Std pour standard deviation (écart-type)
    22. 22. Maximum/minimum
    23. 23. Cumsum (somme cumulée)
    24. 24. Argmax/argmin
    25. 25. Norm (norme)
    26. 26. Hadamard (multiplication par élément)
    27. 27. Addition (avec broadcasting)
    28. 28. Comparaisons (>, >=, <, <=, ==)
    29. 29. Topk (les k plus grandes valeurs)
    30. 30. Produit scalaire — dot product (1D)
    31. 31. Produit vectoriel (cross product - 3D)
    32. 32. Multiplication matricielle (mm)
    33. 33. Outer product (produit externe)
    34. 34. Produit de Kronecker
    35. 35. Inversion de matrice (inv)
    36. 36. Pinverse (pseudo-inverse de Moore-Penrose)
    37. 37. Déterminant (det)
    38. 38. Diagonale et trace
    39. 39. Sort (tri)
    40. 40. Clamp (limitation dans des intervalles donnés)
    41. 41. Masquage et remplissage (masked fill)
    42. 42. Meshgrid
    43. 43. Clause where (sélection conditionnelle entredeux tenseurs)
    44. 44. BMM (Batch Matrix Multiplication)
    45. 45. Logsumexp (log de la somme exponentielle)
  5. Notation d’Einstein
    1. 1. Produit dyadique de deux vecteurs
    2. 2. Produit d’Hadamard de deux matrices
    3. 3. Produit matriciel
    4. 4. Application d’une matrice sur un vecteur
    5. 5. Somme des éléments d’untenseur
    6. 6. Trace d’une matrice
    7. 7. Transposée d’une matrice
    8. 8. Produit de Kronecker de deux matrices
  6. Création d’un réseau de neurones simple (NN “vanilla”) avec PyTorch
  7. Un réseau de neurones effectuant une régression, avec Neuralnet puis avec Torch
Heuristiques clés : logique floue - swarm - CNN
  1. Systèmes flous
    1. 1. Introduction
    2. 2. La logique floue en pratique (systèmes experts)
  2. Essaim (swarm)
    1. 1. Swarm et optimisation : l’algorithme PSO
      1. a. Présentation de PSO
      2. b. Description de PSO
    2. 2. Mise en pratique de PSO
  3. Historique et agencement des concepts liés aux réseaux de neurones qui déboucheront sur les LLM
  4. Le "Légo" des réseaux neuronaux - CNN et compagnons
    1. 1. Classification d’images en noir et blanc,CNN, convolution et pooling
    2. 2. Réseaux neuronaux récurrents (RNN)
    3. 3. Variational Autoencoders (VAE)
      1. a. Espace latent
      2. b. Modèle VAE
    4. 4. Generative Adversarial Networks (GAN)
    5. 5. Les principales fonctions d’activation à notredisposition
Traitement du langage naturel - NLP
  1. Introduction
  2. Analyse sémantique latente et SVD : "embedding" naturel
    1. 1. Aspects théoriques
      1. a. SVD : généralités
      2. b. Une justification de la décomposition SVD
      3. c. SVD dans le contexte LSA
      4. d. Interprétation
      5. e. Alternative non linéaire, Isomap (MDS, géodésique,variété, manifold)
    2. 2. Mise en pratique
      1. a. Initialisation
      2. b. Au cœur de LSA
      3. c. Résultats
      4. d. Manipulations, interprétations récréativeset non fondées
  3. Briques et outils à notre disposition pour l'embedding et l'utilisation de textes
Knowledge Graphs
  1. Introduction
  2. Premiers pas
    1. 1. Quelques notions et notations complémentairesbasiques
    2. 2. Manipulations simples de graphes avec R
    3. 3. Structure des graphes
  3. Graphes et réseaux (sociaux)
    1. 1. Analyse des réseaux sociaux : conceptsde base
    2. 2. Mise en pratique
    3. 3. Détection de communautés
  4. Embedding de graphes
  5. GNN (Graph Neural Networks)
LLM, Transformers, GPT, RAG et Agents
  1. Introduction aux LLM
  2. Entraînement des modèles LLM
  3. LLM basés sur l’architecture Transformer
    1. 1. Synthèse de l’architecture Transformers
      1. a. Encodeur
      2. b. Décodeur
      3. c. Générateur
      4. d. La technique de connexion résiduelle, skipconnection
    2. 2. Un peu plus loin avec l’architecture Transformer
  4. Création d’un modèle GPT from scratch
  5. Utilisation d’un LLM en local
    1. 1. Ollama
    2. 2. Ollama et Shiny
    3. 3. Ollama et Lucie : personnalisation de l’interactiond’un LLM
    4. 4. Paramètres détaillés deconfiguration des LLM
    5. 5. Perplexité
  6. Améliorer les réponses du LLM via le RAG
    1. 1. Le RAG (Retrieval Augmented Generation)
    2. 2. RAG naïf avec Ollama
  7. Utilisation d’agents pour améliorer les IA basées sur les LLM
    1. 1. Les agents sont vos amis
    2. 2. Création d’un agent
  8. En guise de conclusion

Eva LAUDE

Eva LAUDE a dispensé de nombreuses formations sur le machine learning et les sciences de la donnée dans différents établissements supérieurs ou organismes privés.                        Elle a exercé des activités de conseil dans des secteurs variés (INSEE, entreprises de biotechnologies ou ESN) et participé à la revue académique "Management & Data Science".                                               

Geek et passionnée, elle s'exprime au travers d'une "stack" logicielle très étendue, dans des contextes de développement en Python ou R. Eva exerce aujourd'hui dans une grande institution sur des projets particulièrement sensibles en termes de disponibilité et de confidentialité.

 

Henri LAUDE

Henri LAUDE est un professionnel reconnu des Computer Sciences. Il a encadré de nombreux travaux de R&D sur les data sciences, l'IA, les Fintech, la détection de fraudes, l'OSINT et le déploiement d’architectures Big Data. Primé à plusieurs reprises pour ses solutions innovantes, comme au Data Intelligence Forum avec une IA spécialisée dans l’intelligence économique nommée DxM (pour Deus eX Machina), il intervient sur des projets aussi variés que l’élaboration d’un exosquelette intelligent ou les IA de cyber protection.

Nos nouveautés

voir plus