1. Livres & vidéos
  2. Les sciences informatiques - De Turing à l'intelligence artificielle

Les sciences informatiques De Turing à l'intelligence artificielle

Informations

Livraison possible dès le 29 décembre 2025
  • Livraison à partir de 0,01 €
  • Version en ligne offerte pendant 1 an
  • Livres rédigés par des auteurs francophones et imprimés à Nantes

Informations

  • Consultable en ligne immédiatement après validation du paiement et pour une durée de 10 ans.
  • Version HTML
  • Livres rédigés par des auteurs francophones et imprimés à Nantes

Les points forts du livre :

  • Une articulation rigoureuse entre théorie du calcul et pratique algorithmique,
  • Une mise en perspective contemporaine de la cryptographie et de la sécurité,
  • Une progression maîtrisée dans l’apprentissage machine et l’intelligence artificielle
Consulter des extraits du livre en ligne Aperçu de la version papier
  • Niveau Initié à Confirmé
  • Nombre de pages 600 pages
  • Parution décembre 2025
  • Niveau Initié à Confirmé
  • Parution décembre 2025

Ce livre propose une exploration approfondie des fondements théoriques, algorithmiques et cognitifs de l’informatique. Il couvre les grands domaines qui forment l’infrastructure intellectuelle des systèmes modernes : algorithmique, complexité, structures de données, optimisation, cryptographie, apprentissage machine et intelligence artificielle.

Destiné aux étudiants, ingénieurs et autodidactes, il offre une compréhension solide des idées et modèles qui structurent l’informatique moderne, tout en invitant à développer un regard critique sur les technologies qui transforment notre rapport au savoir, à l’automatisation et à l’intelligence.

Avec clarté et rigueur, l’ouvrage expose les principes essentiels du calcul, de la sécurité de l’information et de la capacité des machines à apprendre automatiquement. Il retrace l’évolution des modèles d’IA (des premiers perceptrons aux grands modèles de langage comme GPT) en suivant une progression allant des notions élémentaires aux approches avancées telles que le Deep Learning, les transformers et l’IA générative. Chaque concept est replacé dans son contexte mathématique et computationnel, avec un constant souci de pédagogie et de précision.

 

Caractéristiques

  • Livre (broché) - 27 x 25 cm
  • ISBN : 978-2-409-05226-2
  • EAN : 9782409052262
  • Ref. ENI : DPHS-INFTURIA

Caractéristiques

  • HTML
  • ISBN : 978-2-409-05235-4
  • EAN : 9782409052354
  • Ref. ENI : LNDPHS-INFTURIA
Introduction
  1. Préface
  2. Avant-propos
Les sciences informatiques
  1. Introduction
  2. L’algorithmique
    1. 1. Les algorithmes
    2. 2. Les algorithmes classiques
    3. 3. L’efficacité des algorithmes
    4. 4. La notation Big-O : une mesure de la complexité asymptotique
      1. a. Complexité asymptotique temporelle
      2. b. Complexité asymptotique spatiale
      3. c. Exemples
      4. d. Autres notations utilisées en complexité asymptotique
      5. e. Conclusion
    5. 5. La machine de Turing
  3. Quelques algorithmes classiques
    1. 1. Le tri
    2. 2. La recherche
    3. 3. Les opérations dans les graphes
    4. 4. Beaucoup d’autres
  4. Les structures de données
    1. 1. Apparues avec les fondations de l’informatique
    2. 2. Les tableaux
    3. 3. Listes chaînées (linked lists)
    4. 4. Les piles et les files
    5. 5. Les arbres
    6. 6. Les graphes
    7. 7. Tables de hachage (hash tables)
    8. 8. Et bien d’autres
  5. Les paradigmes de résolution
    1. 1. La récursivité
    2. 2. La programmation dynamique
    3. 3. Le backtracking
    4. 4. Les algorithmes gloutons
    5. 5. Vers des algorithmes plus élaborés
  6. L’optimisation mathématique
    1. 1. L’optimisation différentielle
    2. 2. Retour sur le calcul différentiel
      1. a. Fonctions convexes et non convexes
      2. b. Minimum et maximum locaux
    3. 3. Optimisation différentielle et descente degradient
      1. a. Algorithme d’optimisation différentielle
      2. b. L’importance de la convexité
    4. 4. Descente de gradient stochastique (SGD)
  7. La méthode de Newton
    1. 1. Introduction à la méthode de Newton
      1. a. Relation entre courbure et optimisation
      2. b. Limites de la descente de gradient
    2. 2. L’optimisation avec la méthode deNewton
      1. a. Principe de la méthode de Newton
      2. b. Formule de la mise à jour
      3. c. Utilisation la matrice Hessienne
    3. 3. Méthodes quasi-Newton
  8. Autres méthodes d’optimisation
    1. 1. Autres méthodes d’optimisation continues
      1. a. La méthode des points intérieurs
      2. b. La méthode des multiplicateurs de Lagrange
      3. c. En encore beaucoup d’autres
    2. 2. L’optimisation linéaire
    3. 3. Optimisation de problèmes combinatoires etdiscrets
    4. 4. Différences fondamentales entre les classesde problèmes et méthodes
      1. a. Optimisation continue
      2. b. Optimisation discrète
  9. Les problèmes difficiles
    1. 1. La notion de « méthodeexacte »
    2. 2. Le problème du voyageur de commerce (TSP)
    3. 3. Le problème du sac à dos (KS)
    4. 4. Le problème de la clique
    5. 5. Le problème de coloration de graphe
    6. 6. Le problème d’affectation
    7. 7. Le problème SAT
    8. 8. Le problème 3-SAT
    9. 9. Les autres problèmes classiques
  10. Les métaheuristiques
    1. 1. Le recuit simulé
      1. a. Algorithme du recuit simulé
      2. b. Concepts sous-jacents
      3. c. Utilisation et applications
    2. 2. Les algorithmes génétiques
      1. a. Processus des algorithmes génétiques
      2. b. Algorithme génétique
      3. c. Utilisation et applications
    3. 3. Les colonies de fourmis
      1. a. Concepts sous-jacents
      2. b. Algorithme de la colonie de fourmis
      3. c. Utilisation et applications
    4. 4. Et bien d’autres
  11. Les classes de complexité
    1. 1. La complexité polynomiale
    2. 2. La classe P
    3. 3. La classe NP
    4. 4. La notion de réduction
    5. 5. NP-complétude
    6. 6. La question P = NP
  12. Du data mining à la data science
    1. 1. Le data mining
    2. 2. La data science
  13. La recherche d’information
    1. 1. Premières approches naïves de larecherche d’information
    2. 2. Vers le TF-IDF : l’idée d’équilibrerfréquence et spécificité
    3. 3. Vers des modèles plus avancés
  14. La théorie de l’information
    1. 1. Information et quantité d’information
    2. 2. Entropie : la moyenne de l’incertitude
    3. 3. Calcul de la quantité d’informationet de l’entropie
    4. 4. Importance de l’entropie et de la quantité d’information
      1. a. En apprentissage machine
      2. b. En cryptographie
      3. c. En compression de données
      4. d. En statistique
  15. Et tant d’autres sujets...
La cryptographie
  1. Introduction
  2. Les principes de cryptographie
    1. 1. Histoire de la cryptographie
    2. 2. Cryptanalyse et la machine Enigma
    3. 3. Principe de Kerckhoffs
    4. 4. Définitions et notions clés
  3. La cryptographie symétrique
    1. 1. Notion de chiffre (cipher)
      1. a. Fonction de chiffrement
      2. b. Fonction de déchiffrement
      3. c. Espaces de clés et textes
      4. d. Fonction de permutation
      5. e. Conclusion
    2. 2. Chiffrement linéaire
    3. 3. Chiffrement affine
    4. 4. Chiffrement classique : Vigenère
      1. a. Chiffrement
      2. b. Déchiffrement
      3. c. Faiblesses du chiffre de Vigenère
    5. 5. Chiffrement classique : Hill
      1. a. Fonction de chiffrement
      2. b. Fonction de déchiffrement
    6. 6. Chiffrement par permutation
    7. 7. Chiffrement classique : One-Time Pad
    8. 8. Chiffrements de bloc sécurisé
    9. 9. Chiffrements par produit et tours de Feistel
      1. a. Tour de transformation et dérivation desclés
      2. b. Tour de Feistel
  4. L’algorithme DES
    1. 1. Fonctionnement de DES
      1. a. Le chiffrement DES
      2. b. Le déchiffrement DES : les étapesinverses
      3. c. Les opérations mathématiques sous-jacentes
    2. 2. Génération des sous-clés
    3. 3. Attaques et limitations de DES
    4. 4. Alternatives à DES : Triple DES et AES
  5. L’algorithme AES
    1. 1. Architecture générale d’AES
    2. 2. Les composants de AES en détail
      1. a. AddRoundKey
      2. b. SubBytes
      3. c. ShiftRows
      4. d. MixColumns
    3. 3. Sécurité et algorithme d’ordonnancementdes clés
    4. 4. Le déchiffrement AES
    5. 5. Utilisation d’AES
  6. Les modes d’opération des chiffres de bloc
    1. 1. Les différents modes d’opérationet leur fonctionnement
      1. a. Mode ECB (Electronic Codebook)
      2. b. Mode CBC (Cipher Block Chaining)
      3. c. Mode CTR (Counter)
    2. 2. Importance du choix du mode d’opération
  7. Le hachage cryptographique
    1. 1. Fonction de hachage
    2. 2. Principes sous-jacents
    3. 3. MD5 (Message Digest 5)
      1. a. Fonctionnement global
      2. b. Une itération en détail
      3. c. MD5 aujourd’hui
    4. 4. La famille SHA (Secure Hash Algorithm)
    5. 5. SHA-1 : principe de fonctionnement
      1. a. Fonctionnement de l’algorithme
      2. b. Une itération en détail
      3. c. SHA-1 aujourd’hui
      4. d. De SHA-1 à SHA-2
    6. 6. SHA-3
  8. L’authentification
    1. 1. Fonctions de hachage avec clé
    2. 2. Code d’authentification de message (MAC)
    3. 3. HMAC (Hash-based Message Authentication Code)
    4. 4. CBC-MAC
    5. 5. Sécurité des protocoles MAC
    6. 6. Utilisation des protocoles MAC
  9. La cryptographie asymétrique
    1. 1. Les fonctions à sens unique
    2. 2. Les fonctions avec porte dérobée(Trapdoor)
  10. Le protocole Diffie-Hellman
    1. 1. Principe du protocole Diffie-Hellman
    2. 2. Sécurité du protocole
  11. L’algorithme RSA
    1. 1. Génération de clés RSA
    2. 2. Chiffrement et déchiffrement
    3. 3. Preuve de correction du déchiffrement RSA
    4. 4. Sécurité du protocole
      1. a. Pourquoi p et q sont nécessaires pour calculerd ?
      2. b. Si l’attaquant connaît p et q
      3. c. Pourquoi l’attaquant ne peut pas inversere directement ?
    5. 5. L’importance du padding
    6. 6. Signatures RSA
    7. 7. Utilisation de RSA
  12. La cryptographie sur courbes elliptiques
    1. 1. Principe et fonctionnement des courbes elliptiques
    2. 2. Addition et multiplication scalaire sur courbes elliptiques
    3. 3. Approche de sécurité avec la cryptographiesur courbes elliptiques
    4. 4. Utilisation des courbes elliptiques en cryptographie
    5. 5. Avantages et inconvénients de l’ECC
  13. D’autres algorithmes cryptographiques classiques
    1. 1. DSA
    2. 2. ChaCha20
    3. 3. Blowfish
    4. 4. Twofish
    5. 5. Salsa20
    6. 6. EdDSA
  14. Les types d’attaques en cryptologie
  15. La cryptographie et la cryptanalyse quantiques
    1. 1. Introduction à l’informatique quantique
    2. 2. Impact sur les algorithmes cryptographiques classiques
      1. a. Cryptanalyse via l’algorithme de Shor
      2. b. Recherche quantique avec l’algorithme deGrover
    3. 3. Vers une cryptographie classique post-quantique
    4. 4. Cryptographie quantique : une réponse à lamenace
    5. 5. L’impact sur la cryptographie actuelle
  16. La sécurité des systèmes informatiques
    1. 1. Types d’attaques en sécurité informatique
    2. 2. Types de vulnérabilités
    3. 3. L’OWASP
    4. 4. Le SANS Top 25
    5. 5. Autres normes et meilleures pratiques
    6. 6. Conclusion
Des premiers virements électroniques à la blockchain
  1. Introduction
  2. Les transferts de fonds électroniques
    1. 1. Les prémices des virements électroniques
      1. a. Le télégraphe (milieu du 19e siècle)
      2. b. Le télégraphe bancaire (fin 19esiècle)
    2. 2. Les premiers véritables virements électroniques
      1. a. Le développement des systèmes internesde virement (années 1960)
      2. b. L’émergence des chambres de compensationautomatisées
    3. 3. L’émergence des réseauxinternationaux
      1. a. Le besoin de standardisation et de sécurité
      2. b. La création de SWIFT
    4. 4. Les sociétés de compensation etles systèmes RTGS
      1. a. Les systèmes RTGS
      2. b. Les sociétés de clearing internationales
  3. Le problème du système financier mondial
    1. 1. Le problème des chambres de compensation
      1. a. Problèmes de centralisation et vulnérabilité auxcrises
      2. b. Coûts et délais
      3. c. Manque de transparence
    2. 2. Un problème plus global
    3. 3. Revenons sur les frais
    4. 4. La chaîne de blocs (blockchain) entre enscène
  4. La blockchain
    1. 1. Une vue simplifiée de la blockchain
    2. 2. Les origines de la blockchain et du Bitcoin
    3. 3. La blockchain de Bitcoin
    4. 4. Une vue sur les opérations de la blockchain
    5. 5. Les mineurs et la « preuve de travail »
  5. Les aspects techniques de la blockchain
    1. 1. La structure de données
    2. 2. Une première vue de la structure d’unbloc
    3. 3. La vie d’un mineur
    4. 4. L’ajustement de la difficulté
    5. 5. La récompense du minage et la créationde bitcoins
    6. 6. Une réserve de bitcoins limitée
    7. 7. Cryptographie des portefeuilles numériques
    8. 8. Les arbres de Merkle
    9. 9. Un réseau pair-à-pair
    10. 10. Blocs orphelins, éteints et périmés
    11. 11. L’attaque des 51 pour cent
  6. La blockchain 2.0
    1. 1. Au-delà des transactions financières
    2. 2. D’un journal de transactions à unjournal d’application
    3. 3. Ethereum
    4. 4. Et d’autres
  7. Les contrats intelligents
    1. 1. Origine des contrats intelligents
    2. 2. Des contrats traditionnels aux contrats intelligents
    3. 3. Caractéristiques des contrats intelligents
    4. 4. Avantages des contrats intelligents
    5. 5. Contrats intelligents et oracles
    6. 6. Le défi des oracles
    7. 7. Cas d’usage des oracles
  8. La preuve d’enjeu (proof of stake)
    1. 1. Revenons sur la preuve de travail
    2. 2. Les inconvénients de la preuve de travail
    3. 3. Une alternative avec la preuve d’enjeu
    4. 4. Fonctionnement de la preuve d’enjeu
    5. 5. Avantages et limites de la preuve d’enjeu
    6. 6. Une approche pour sélectionner les validateurs,la DPoS
  9. Les actifs numériques
    1. 1. Histoire des actifs numériques
    2. 2. Fonctionnement des actifs numériques
    3. 3. Types d’actifs numériques
      1. a. Security Tokens
      2. b. Utility Tokens
      3. c. Autres
    4. 4. Le futur des actifs numériques
  10. L’évolution de la blockchain
L'apprentissage machine
  1. Introduction
  2. Concepts de base
    1. 1. Des systèmes experts à l’apprentissagemachine
    2. 2. Apprentissage automatique ou apprentissage machine?
    3. 3. Apprentissage machine supervisé et non supervisé
    4. 4. Apprentissage entraîné et non entraîné
    5. 5. Les hyperparamètres
    6. 6. Les problèmes de surapprentissage et sous-apprentissage
    7. 7. Des variables aux caractéristiques
    8. 8. L’ingénierie de caractéristiques
    9. 9. Apprentissage machine contre méthode exacte
    10. 10. Fonctions de perte et de coût
    11. 11. Les fonctions d’activation
      1. a. Les fonctions habituelles
      2. b. La fonction d’activation sigmoïde
      3. c. La fonction d’activation ReLU
      4. d. la fonction d’activation SoftMax
  3. Le perceptron
    1. 1. Histoire du perceptron
    2. 2. Fonctionnement du perceptron
    3. 3. Apprentissage du perceptron
    4. 4. Utilisation et applications
  4. Les modèles régressifs
    1. 1. Histoire des modèles régressifs
    2. 2. Fonctionnement des modèles régressifs
    3. 3. Mathématiques sous-jacentes des modèlesrégressifs
    4. 4. Utilisation et applications
  5. Le clustering
    1. 1. Histoire du clustering
    2. 2. Fonctionnement du clustering
    3. 3. Algorithme k-means
    4. 4. Métriques de distance
    5. 5. Utilisation et applications
  6. Les réseaux de neurones multicouches (MLP)
    1. 1. Histoire des réseaux de neurones
    2. 2. Principe des réseaux de neurones
    3. 3. Fonctionnement d’un neurone en MLP classique
    4. 4. Utilisation et applications
  7. La rétropropagation (BP)
    1. 1. Histoire de la rétropropagation
    2. 2. Principe de la rétropropagation
    3. 3. Objectifs de la rétropropagation
      1. a. L’erreur quadratique moyenne (MSE)
      2. b. L’entropie croisée
    4. 4. Fonctionnement de la rétropropagation
      1. a. Initialisation des poids du réseau
      2. b. Passe avant (Forward pass)
      3. c. Rétropropagation (backpropagation)
      4. d. La propagation arrière en pratique
      5. e. Mise à jour des poids
      6. f. Résumé du processus
    5. 5. Algorithme d’entraînement
      1. a. Traitement d’une seule entrée à lafois
      2. b. Traitement de plusieurs entrées à lafois (Mini-Batchs)
      3. c. Traitement de l’ensemble du jeu de données à lafois (Batch Gradient Descent)
    6. 6. Vers une rétropropagation matricielle : duneurone isolé à la couche entière
      1. a. Passe avant
      2. b. Rétropropagation
      3. c. Pourquoi passer aux matrices ?
    7. 7. L’épine dorsale des réseauxde neurones
  8. Les arbres de décision
    1. 1. Histoire des arbres de décision
    2. 2. Principe des arbres de décision
    3. 3. Fonctionnement des arbres de décision
      1. a. Mesures utilisées
      2. b. Algorithme de construction
    4. 4. Utilisation et applications
    5. 5. Évolutions des arbres de décision
    6. 6. Forêt aléatoire (RF)
    7. 7. XGBoost
  9. Les réseaux neuronaux convolutifs (CNN)
    1. 1. Histoire des réseaux neuronaux convolutifs
    2. 2. Principe des réseaux neuronaux convolutifs
    3. 3. Fonctionnement des réseaux neuronaux convolutifs
      1. a. Couches convolutives
      2. b. Fonction d’activation
      3. c. Couches de pooling
      4. d. Couches Fully Connected (FC)
    4. 4. La convolution dans le détail
      1. a. Initialisation de la matrice de filtre (noyau convolutif)
      2. b. Passage avant (forward pass)
      3. c. Rétropropagation de l’erreur
      4. d. Mise à jour des poids du filtre (descentede gradient)
      5. e. Répétition du processus
    5. 5. Utilisation et applications
  10. Les réseaux récurrents (RNN)
    1. 1. Histoire des RNN
    2. 2. Principe des RNN
      1. a. Modèle de base d’un RNN
      2. b. L’état caché
      3. c. Les couches récurrentes
    3. 3. Entraînement des RNN
    4. 4. Empilement de couches dans les RNN
    5. 5. Utilisation et applications
  11. La rétropropagation dans le temps (BPTT)
    1. 1. Histoire de la rétropropagation dans le temps
    2. 2. Principe de la rétropropagation dans le temps
      1. a. Principe fondamental
      2. b. Une différence de perspective entre rétropropagationclassique et BPTT
      3. c. Processus mathématique
    3. 3. Fonctionnement de la rétropropagation dansle temps
      1. a. Rappel des fonctions de coûts
      2. b. Calculs de la passe avant (forward pass)
      3. c. Calculer le gradient de l’erreur par rapport à lasortie
      4. d. Calculer le gradient par rapport à l’étatcaché
      5. e. Calculer les gradients des poids et des biais
      6. f. Mise à jour des poids avec la descente degradient
    4. 4. Conclusion
  12. Les problèmes de gradients
    1. 1. Les gradients qui disparaissent
    2. 2. Les gradients qui explosent
  13. Les LSTM
    1. 1. Principe des LSTM
    2. 2. Fonctionnement des LSTM
      1. a. Porte d’oubli (<span class="italic">f<sub class="subscript">t</sub></span>)
      2. b. Porte d’entrée (<span class="italic">i<sub class="subscript">t</sub></span>)
      3. c. Création de la nouvelle mémoirecandidate
      4. d. Mise à jour de la cellule de mémoire
      5. e. Porte de sortie (O<span class="italic">t</span>)
      6. f. Calcul de l’état caché etla sortie (<span class="italic">h<sub class="subscript">t</sub></span>)
      7. g. Conclusion
    3. 3. Rétropropagation dans le temps pour les LSTM
      1. a. Calculs des dérivées partielles
      2. b. Avantages et approche
    4. 4. Empilement de couches dans les LSTM
    5. 5. Utilisation et applications
  14. L’avènement du deep learning
    1. 1. Fonctionnement et principe du deep learning
    2. 2. Dimensions du deep learning
      1. a. Nombre de couches cachées
      2. b. Nombre de neurones
  15. Les transformers
    1. 1. Principes de fonctionnement des transformers
      1. a. L’attention à produit scalaire
      2. b. Encodage de position
      3. c. Encodage et décodage
      4. d. Structure des couches
      5. e. Tokenization des séquences
      6. f. Conclusion
    2. 2. Fonctionnement détaillé de l’encodeur(A)
      1. a. Tokenization et encodage en embedding (A1)
      2. b. Encodage positionnel (A2)
      3. c. Une pile de couches d’encodage (A3)
      4. d. Mécanisme d’auto-attention multitête(A31)
      5. e. Normalisation et connexions résiduelles (A32)
      6. f. Réseau de neurones feed-forward (A33)
      7. g. Sortie de l’encodeur (A4)
    3. 3. Fonctionnement détaillé du décodeur(B)
      1. a. Tokenization et Embeddings de sortie (B1)
      2. b. Encodage positionnel (B2)
      3. c. Une pile de couches de décodage (B3)
      4. d. Mécanisme d’auto-attention masque(B31)
      5. e. Attention multitête encodeur-décodeurou attention croisée (B32)
      6. f. Réseau de neurones feed-forward (B33)
      7. g. Classificateur linéaire et Softmax pour générerles probabilités de sortie (C)
      8. h. Sortie du décodeur
    4. 4. Entraînement d’un transformer
    5. 5. Utilisation et applications
  16. Les GPT
    1. 1. Les transformers : une architecture de base flexible
    2. 2. GPT : une spécialisation des transformerspour la génération de texte
    3. 3. Comparaison entre GPT et transformers génériques
    4. 4. Utilisation des GPT
  17. Les grands modèles de langage (LLM)
  18. Beaucoup d’autres techniques
    1. 1. Analyse en composantes principales (PCA)
    2. 2. Machines à vecteurs de support (SVM)
    3. 3. Réseaux antagonistes génératifs(GAN)
    4. 4. Les auto-encodeurs (AE)
    5. 5. Les réseaux bayésiens
  19. Et d’autres approches
    1. 1. L’apprentissage par renforcement (RL)
    2. 2. L’apprentissage par transfert (TL)
    3. 3. L’apprentissage fédéré (FL)
    4. 4. L’apprentissage actif (AL)
  20. Les technologies d’apprentissage machine
    1. 1. TensorFlow
    2. 2. PyTorch
    3. 3. Scikit-Learn
    4. 4. Apache Spark MLlib
    5. 5. Apache Flink ML
    6. 6. Autres
  21. Conclusion
L’intelligence artificielle
  1. Introduction
  2. Intelligence artificielle et apprentissage machine
    1. 1. Deux choses différentes
    2. 2. Pourquoi sont-ils souvent confondus ?
    3. 3. Différences essentielles
  3. IA prédictive vs IA générative
    1. 1. IA prédictive
    2. 2. IA générative
    3. 3. Distinction
  4. Les limites de l’IA
    1. 1. Limitations techniques
    2. 2. Limites éthiques et biais
    3. 3. Limites conceptuelles
    4. 4. Le problème du stock de données
    5. 5. Un développement rapide, mais des perspectivesencore incertaines
  5. L’intelligence augmentée contre l’intelligence artificielle
  6. Réalité et science-fiction
    1. 1. L’IA faible : des systèmes spécialisés
    2. 2. L’IA forte : une intelligence semblable à cellede l’humain
    3. 3. L’IA générale : une polyvalencecomparable à l’intelligence humaine
    4. 4. Consensus actuel : l’IA généraleet forte, un objectif lointain
Arsenal mathématique
  1. Introduction
  2. Notions d’algèbre fondamentales
    1. 1. Fonction mathématique
      1. a. Notation de base d’une fonction
      2. b. Notation ensembliste
      3. c. Qualités injectives, surjectives et bijectivesdes fonctions
      4. d. Notation pour les compositions de fonctions
      5. e. Notation pour les fonctions inverses
    2. 2. Introduction aux prédicats mathématiques
      1. a. Définition des prédicats
      2. b. Les quantificateurs
      3. c. Négation des quantificateurs
      4. d. Implication et équivalence
    3. 3. Introduction à la notation de somme
    4. 4. Introduction à la notation de produit
    5. 5. La valeur absolue
    6. 6. Notions de variation et de limite
      1. a. Introduction à la notion de delta
      2. b. Introduction à la notion de limite
      3. c. Utilisations générales des conceptsde delta et de limite
  3. Introduction à la théorie des ensembles
    1. 1. Opérations fondamentales
    2. 2. Ensembles remarquables
  4. Introduction au calcul matriciel
    1. 1. Addition de matrices
    2. 2. Produit scalaire entre vecteurs
    3. 3. Norme d’un vecteur
    4. 4. Formule géométrique du produit scalaireet identité remarquable
    5. 5. Multiplication par un scalaire
    6. 6. Multiplication de matrices
    7. 7. Transposition de matrices
    8. 8. Le déterminant d’une matrice
      1. a. Cas triviaux
      2. b. Cas général : Développementpar les cofacteurs
      3. c. Interprétation géométrique
      4. d. Propriétés du déterminant
      5. e. Exemple pratique
    9. 9. Matrice adjointe et matrice inverse
      1. a. Étapes pour calculer la matrice adjointe
      2. b. Propriétés importantes
      3. c. Exemple pour une matrice 2 x 2
    10. 10. Valeurs propres et vecteurs propres
      1. a. Calcul des valeurs propres
      2. b. Exemple
      3. c. Utilisation des valeurs propres
  5. Introduction au calcul différentiel
    1. 1. Calcul des dérivées
    2. 2. Dérivées ordinaires et dérivéespartielles
      1. a. Calcul des dérivées partielles
      2. b. Remarque sur les notations de dérivées
      3. c. Calcul du gradient
    3. 3. Dérivées secondes
      1. a. Définition et notation
      2. b. Exemple de dérivée seconde
      3. c. La matrice Hessienne
      4. d. Exemple de Hessienne
  6. Introduction à la théorie des nombres
    1. 1. Concepts fondamentaux
      1. a. Division euclidienne
      2. b. Nombre premier
      3. c. Théorème de décomposition
      4. d. Le plus grand commun diviseur (PGCD)
    2. 2. Introduction à l’arithmétiquemodulaire
      1. a. Congruence et relation de divisibilité
      2. b. Structure modulaire et classes d’équivalence
      3. c. Propriétés de la congruence
    3. 3. Outils de l’arithmétique modulaire
      1. a. Algorithme d’Euclide
      2. b. Théorème de Bézout
      3. c. Algorithme d’Euclide étendu
    4. 4. L’inverse modulaire
      1. a. Algorithme pour trouver l’inverse modulaire
      2. b. Propriétés de l’inversemodulaire
      3. c. Ensemble des inversibles modulo m
    5. 5. Résolution des congruences linéaires
    6. 6. Théorème chinois des restes (CRT)
      1. a. Description
      2. b. Exemple
    7. 7. Fonction d’Euler
    8. 8. Petit théorème de Fermat
    9. 9. Exponentiation rapide
      1. a. Algorithme
      2. b. Exemple
    10. 10. Ordre d’un élément
    11. 11. Théorème du générateur
    12. 12. Distribution des nombres premiers
      1. a. Notation
      2. b. Théorème : Approximation du nombrede nombres premiers
      3. c. Remarque
      4. d. Meilleure approximation
      5. e. Test de non-primalité : par divisions
    13. 13. Test de non-primalité : test de Fermat
      1. a. Test de Fermat
      2. b. Exemple
      3. c. Les pseudo-premiers de Fermat
    14. 14. Test de non-primalité : test de Miller-Rabin
      1. a. Principe du test
      2. b. Conséquence du test
      3. c. Avantage
      4. d. Algorithme pour le test de non-primalité (Miller-Rabin)
    15. 15. Diverses propriétés du calcul modulaire
      1. a. Exponentiation au modulo d’un produit denombres premiers
      2. b. Théorème d’utilisationde la fonction d’Euler
      3. c. Calcul modulaire via CRT
  7. Introduction aux corps finis
    1. 1. Polynômes à coefficients modulaires
      1. a. Formalisme
      2. b. Exemple
    2. 2. Division euclidienne des polynômes
    3. 3. Corps finis de polynômes
      1. a. Notion fondamentale des corps finis de polynômes
      2. b. Nombre d’éléments
    4. 4. Polynômes irréductibles
      1. a. Formalisation
      2. b. Exemple
    5. 5. Corps de polynômes, le théorèmefondamental
    6. 6. Théorème de polynômes irréductible
    7. 7. Fermat et les générateurs pour lescorps de polynômes
      1. a. Les générateurs pour les corps depolynômes
      2. b. Théorème de Fermat pour les corpsde polynômes
    8. 8. Inverse dans un corps fini
      1. a. Étapes pour trouver l’inverse dansun corps
      2. b. Exemple
Conclusion
  1. Épilogue
  2. En conclusion
  3. Derniers mots de l’auteur

Jérôme KEHRLI

Jérôme KEHRLI est un expert reconnu en ingénierie logicielle, en intelligence artificielle et en architecture des systèmes d’information, avec plus de vingt ans d’expérience dans la conception et l’évolution de plateformes critiques, notamment dans le secteur financier. Ancien CTO de NetGuardians et aujourd’hui Head of Technology chez DuoKey, il allie une vision stratégique à une expertise technique approfondie, qu’il partage également en tant qu’enseignant et consultant. Son parcours nourrit son intérêt pour l’histoire et les fondements des sciences informatiques, qu’il explore et transmet à travers l’écriture de ce livre.

Découvrir tous ses livres

  • L’informatique Des transistors aux microservices

Nos nouveautés

voir plus