Colocalisation Multi-Cloud
Stratégie hébergeant infrastructure chez multiples hyperscalers dans même région pour réduire vendor lock-in et augmenter disponibilité.
Stratégie hébergeant infrastructure chez multiples hyperscalers dans même région pour réduire vendor lock-in et augmenter disponibilité.
Service permettant d'héberger ses propres serveurs (propriété du client) dans un datacenter externe. Le prestataire fournit espace, électricité, climatisation, sécurité et connectivité.
Ce type de datacenter est conçu pour être équipé progressivement et de manière autonome suivant l'évolution des besoins, et du taux de charge. Il est particulièrement efficace sur le plan énergétique et d'un niveau de redondance défini à l'avance, ou évoluant selon les besoins.
Unité mobile (conteneur maritime) transformée en datacenter, déployable rapidement pour ajouter capacité. Utilisé pour pics de charge ou régions éloignées.
Architecture réseau moderne interconnectant tous les serveurs d'un datacenter avec latence basse et haute disponibilité, plutôt qu'une hiérarchie traditionnelle.
Infrastructure physique hébergeant des serveurs informatiques avec systèmes d'alimentation redondants, refroidissement, sécurité et connectivité. Un datacenter moderne peut contenir de quelques dizaines à plusieurs centaines de milliers de serveurs.
Petit datacenter situé au plus près des utilisateurs finaux pour minimiser la latence (50-500 m² vs plusieurs milliers pour hyperscale). Utilisé pour cloud gaming, véhicules autonomes, e-santé temps réel.
Très grand datacenter (plusieurs hectares) opéré par hyperscalers, avec automatisation maximale et économies d'échelle pour coûts réduits.
Synonyme de colocation. Hébergement de matériel client dans infrastructure tierce.
Entreprise opérant des infrastructures cloud à très grande échelle (plusieurs centaines de datacenters mondiaux). Les trois principaux sont AWS, Microsoft Azure et Google Cloud, représentant 58% de la capacité mondiale.
Très petit datacenter (<10 m²) pour déploiement local, edge ou bureaux distants. Version ultra-miniaturisée d'infrastructure complète.
Infrastructure légère contenant serveurs de cache et équipements réseau, sans stockage massif. Les PoP rapprochent le contenu des utilisateurs finaux pour réduire la latence.
Cadre métallique standard (19 pouces de largeur) permettant d'empiler serveurs et équipements. Hauteur mesurée en unités (U) de 4,45 cm.
Zone géographique contenant plusieurs Zones de Disponibilité d'un fournisseur cloud. Le choix détermine la latence, conformité juridique et coûts.
Architecture isolée où données et traitements d'une unité ne communiquent pas avec autres silos. Problématique pour efficacité et analytics.
Suivi des indicateurs de Responsabilité Sociétale des Entreprises spécifiques aux datacenters : consommation énergétique (PUE), empreinte carbone, gestion des déchets électroniques, utilisation d'énergies renouvelables et certifications environnementales.
Ensemble des technologies, langages de programmation, frameworks, outils et services utilisés pour développer et exploiter une application ou une infrastructure IT. Comprend généralement le frontend (interface utilisateur), le backend (logique métier, API), la base de données, le serveur, et les services tiers. Exemple : React + Node.js + PostgreSQL + Docker + AWS. Le choix du tech stack influence la performance, la scalabilité, les coûts de maintenance et les compétences requises pour l'équipe de développement.
Unité de hauteur standardisée (4,45 cm) pour mesurer équipements montés en rack. Un serveur 1U = 4,45 cm, 2U = 8,9 cm.
Datacenter ou groupe de datacenters isolés au sein d'une région, avec alimentation, réseau et refroidissement indépendants. Une panne dans une AZ n'affecte pas les autres.
Cinquième génération de réseau mobile offrant des débits supérieurs à 1 Gbps, une latence ultra-faible (<10ms) et la capacité de connecter massivement des objets IoT. Essentielle pour les applications critiques comme l'industrie 4.0 et les véhicules autonomes.
Technique de routage où même adresse IP est annoncée depuis multiples serveurs distribués géographiquement, routant utilisateur vers serveur le plus proche.
Réseau ou ensemble de réseaux gérés par une entité unique, identifié par numéro ASN unique.
Numéro unique identifiant un AS sur Internet, requis pour faire du BGP.
Épine dorsale Internet composée de Tier 1 opérateurs (AT&T, Orange, Cogent, Lumen) s'échangeant trafic gratuitement.
Quantité de données pouvant transiter par seconde, mesurée en Mbps (mégabits) ou Gbps (gigabits). 1 Gbps = 125 Mo/s.
Protocole de routage permettant à réseaux d'échanger informations sur accessibilité. Fondamental pour Internet.
Envoi d'un paquet à tous les appareils sur réseau local.
Réseau de serveurs répartis géographiquement mettant en cache contenu au plus près des utilisateurs finaux. Réduit latence, économise bande passante, protège contre DDoS.
Attaque inondant serveur avec trafic de multiples sources, le rendant inaccessible aux utilisateurs légitimes.
Attaque volumétrique au niveau réseau (IP) envoyant énorme quantité de trafic.
Attaque applicative (HTTP) avec requêtes légitimes apparentes mais volumineuses, plus difficile à détecter.
Service traduisant noms de domaine (google.com) en adresses IP (142.250.185.46). Décentralisé, distribué mondialement.
Extension de DNS ajoutant signatures cryptographiques pour empêcher DNS spoofing.
Technologie transmettant multiples longueurs d'onde sur même fibre, augmentant capacité sans fibre supplémentaire.
Câbles en fibre optique transmettant données par signaux lumineux à très haute vitesse (typiquement 100 Gbps+).
Externalisation de tout ou partie de la gestion du système d'information d'une entreprise à un prestataire spécialisé. L'infogérant prend en charge l'exploitation, la maintenance, la supervision et l'évolution des infrastructures IT (serveurs, réseaux, applications) selon des niveaux de service contractualisés (SLA). Permet à l'entreprise de se concentrer sur son cœur de métier tout en bénéficiant d'expertise technique, de disponibilité garantie et de maîtrise des coûts IT.
Ensemble des technologies, infrastructures et services dédiés au traitement, au stockage, à la transmission et à la gestion de l'information numérique. Englobe les serveurs, réseaux, systèmes d'exploitation, bases de données, applications, cybersécurité et support technique. L'IT constitue le socle technologique permettant le fonctionnement des systèmes d'information et la transformation digitale des organisations.
Infrastructure neutre où opérateurs connectent réseaux pour échanger trafic directement. France-IX Paris (700+ membres), DE-CIX Marseille, LyonIX.
Variation de latence entre paquets. Jitter élevé crée instabilité, problématique pour vidéoconférence ou jeux temps réel.
Temps de trajet d'une donnée entre deux points, mesuré en millisecondes (ms). <5 ms = datacenter local, <10 ms = excellent temps réel, >100 ms = perceptible utilisateur.
Temps physique pour signal lumineux traverser fibre optique. ~200 km/ms, Paris-Marseille = minimum 4 ms théoriques.
Technologie de routage haute performance créant chemins explicites pour trafic, avec garanties QoS.
VPN utilisant MPLS pour créer chemins privés sur infrastructure partagée.
Taille maximale d'un paquet réseau (1500 bytes typiquement). Paquets plus grands sont fragmentés.
Envoi d'un paquet unique à multiples destinataires simultanément, économisant bande passante (streaming live, jeux).
Accord entre deux réseaux de taille similaire pour échanger trafic directement, généralement sans contrepartie financière. Réduit latence et coûts.
Connexion directe dédiée entre deux réseaux (PNI), sans passer par IXP.
Échange de trafic via points d'échange Internet (IXP) public comme France-IX à Paris.
Ensemble de techniques garantissant bande passante, latence, gigue et perte de paquets pour trafic critique.
Ensemble des ressources matérielles, logicielles, données et procédures organisées permettant de collecter, stocker, traiter et diffuser l'information au sein d'une organisation. Le SI supporte les processus métier, la prise de décision et englobe les infrastructures IT, applications métier (ERP, CRM), bases de données et réseaux. La gouvernance du SI assure l'alignement avec la stratégie d'entreprise et la conformité.
Opérateur d'épine dorsale Internet n'achetant transit auprès de personne, échangeant gratuitement avec autres Tier 1.
Réseau régional achetant transit à Tier 1, faisant du peering avec autres Tier 2.
Fournisseur local achetant transit à Tier 2, aucun peering.
Service commercial où opérateur paie fournisseur pour accéder à l'ensemble d'Internet. Modèle "fournisseur d'accès".
Routage un-à-un traditionnel : paquet envoyé vers une seule adresse IP de destination.
Deux systèmes complets indépendants en parallèle, soit double capacité.
Configuration où tous systèmes travaillent simultanément, tous acceptent trafic. Si un tombe, autres reprennent.
Configuration où système primaire travaille, système secondaire attend. Basculement si primaire tombe.
Composant limitant performances globales. Si connexion réseau 1 Gbps mais disque ultra-rapide, réseau = bottleneck.
Membre du comité de direction responsable de la stratégie, de la gouvernance et de la gestion globale du système d'information de l'entreprise. Le CIO supervise l'exploitation des infrastructures IT, pilote la transformation digitale, gère le budget informatique, assure la sécurité et la conformité, et aligne la stratégie IT sur les objectifs métier. Équivalent anglophone du DSI français, le CIO manage les équipes techniques, négocie avec les fournisseurs et garantit la performance et la disponibilité des services IT. Rôle stratégique dans la compétitivité et l'innovation de l'organisation.
Latence initiale démarrage application/fonction (serverless), avant optimisation.
Membre du comité de direction responsable de la stratégie technologique, de l'innovation et de l'architecture technique de l'entreprise. Le CTO définit la vision technologique à long terme, pilote la R&D, supervise les choix d'architecture et de tech stack, et s'assure de l'alignement entre innovation technologique et objectifs business. Contrairement au DSI centré sur l'exploitation du SI existant, le CTO se concentre sur l'évolution technologique, la veille, les nouveaux produits et la transformation digitale. Rôle clé dans les entreprises tech et start-ups.
Pourcentage de temps système opérationnel. 99.99% = 52 minutes arrêt/an, 99.999% = 26 secondes/an.
Période d'indisponibilité service. SLA 99.95% autorise 4.38h arrêt/an (~22 min/mois).
Basculement automatique vers système de secours lors défaillance du système principal.
Nombre opérations calcul en virgule flottante par seconde. TFLOPS pour superordinateurs.
Stratégie visant à accélérer rapidement la croissance d'une entreprise ou d'un produit en optimisant les leviers d'acquisition, de conversion et de rétention. S'appuie sur l'analyse de données, l'automatisation marketing, l'optimisation continue (A/B testing), et des infrastructures IT scalables capables d'absorber une montée en charge rapide. Nécessite une architecture technique flexible (cloud, microservices) permettant de déployer rapidement de nouvelles fonctionnalités et de s'adapter à l'augmentation du trafic et des utilisateurs.
Architecture minimisant downtime avec redondance et failover automatique. Objectif: 99.99%+.
Nombre opérations I/O (lectures/écritures) par seconde. SSD : 10000+ IOPS, HDD : 100-200 IOPS.
Équipement distribuant trafic entre multiples serveurs backend.
Distribution charge (trafic, traitements) entre multiples serveurs pour éviter surcharge un seul.
Puissance calcul processeur. Mesure obsolète, remplacée par Ghz pour CPU modernes.
Pour N équipements nécessaires, N+1 sont installés (1 de secours). Si 1 serveur critique, 2 sont provisionnés.
Ratio énergie totale datacenter ÷ énergie équipements IT. PUE 1.2 = 83% efficacité, PUE 2.0 = 50%. Plus proche de 1.0, mieux c'est.
Perte de données maximale acceptable. RPO 1h = maximum 1 heure de données perdues.
Temps maximum d'interruption tolérable après incident. RTO 4h = redémarrage en moins de 4 heures.
Capacité système à continuer fonctionner partiellement lors défaillance, au lieu de s'arrêter complètement.
Engagement contractuel sur disponibilité service (99%, 99.9%, 99.99%, 99.999%). SLA 99.99% autorise 52 minutes downtime/an.
Composant unique dont défaillance arrête tout système. À éliminer dans architectures critiques.
Classification Uptime Institute : 99.671% disponibilité, 28.8h downtime/an. Aucune redondance. Utilisé dev/test.
99.982% disponibilité, 1.6h downtime/an. Redondance N+1 complète, maintenance sans arrêt. Production standard.
99.995% disponibilité, 26.3 min downtime/an. Redondance 2N ou 2(N+1). Mission critique.
Temps opérationnel système, inverse downtime.
État optimisé après warm-up, latence réduite.
Propriétés transactions base données : Atomicité (tout ou rien), Cohérence (validité), Isolation (pas interférence), Durabilité (perte après commit).
Architecture intégrant serveurs, stockage et réseau dans des nœuds standardisés gérés par logiciel. Permet une évolutivité horizontale simplifiée et une gestion unifiée de l'infrastructure.
Conteneur de données dans stockage objet AWS S3.
Impossible simultanément garantir Consistency, Availability et Partition tolerance. Choisissez 2/3.
Réduction taille données via algorithmes (GZIP, LZ4). Économise espace et bande passante, coût calcul.
Stockage connecté directement serveur (pas de réseau). Rapide mais non partageable.
Suppression données dupliquées, stockant unique version et pointeurs. Économise espace pour données répétitives.
Dépôt centralisé stockant quantités massives données structurées/non-structurées pour analytics.
Système optimisé requêtes analytiques, structurant données organisées depuis sources multiples.
Duplication base données sur multiples serveurs pour lecture distribuée et disponibilité.
Division base données horizontalement entre multiples serveurs, chaque contenant subset données.
Stratégie stockant données chaudes (fréquentes) sur SSD rapide, données froides (peu accédées) sur HDD économique.
Variante ETL : chargement données brutes puis transformation destination.
Processus intégration données : extraction source, transformation format/nettoyage, chargement destination.
Données finalement cohérentes après propagation, vs immédiatement (ACID).
Disque dur traditionnel avec plateaux rotatifs. Faible coût, grande capacité, lent (100-200 IOPS), consommation énergétique.
Système stockage attaché réseau Ethernet, accessible par SMB/NFS. Plus simple que SAN.
Alternative RDBMS : MongoDB (document), Redis (clé-valeur), Cassandra (colonnes) pour données non-structurées.
Interface haute vitesse pour SSD, jusqu'à 7 GB/s (vs SATA 550 MB/s).
Stockage basé objets (S3, Swift) vs bloc traditionnel. Scalable, idéal données non-structurées.
Dispositif garantissant continuité services critiques sans interruption lors incident, vs PRA qui gère redémarrage.
Document procédures redémarrage systèmes après sinistre majeur. Définit RTO et RPO.
Striping : données distribuées sur 2+ disques, augmentant vitesse mais sans redondance. Perte si 1 disque tombe.
Mirroring : données dupliquées sur 2 disques. Redondance complète, capacité réduite de 50%.
Striping avec parité distribué. Tolère perte 1 disque, nécessite minimum 3 disques. Coût redondance 33%.
Striping double parité. Tolère perte 2 disques simultanément. Pour 8+ disques.
Système base données traditionnel (MySQL, PostgreSQL, Oracle, SQL Server) structurant données en tables relations.
Meilleure pratique : 3 copies données, 2 supports différents, 1 copie hors site.
Réplication différée : écriture confirmée localement, répliquée après. Plus rapide mais risque perte données si catastrophe.
Réplication temps réel : écrit seulement confirmé si répliqué sur site distant. Temps réel mais latence accrue.
Réseau dédié connectant serveurs à storage centralisé via Fibre Channel ou iSCSI.
Copie toutes données. Lent et volumineux mais restauration rapide.
Copie données modifiées depuis dernière sauvegarde complète. Restauration simple (complète + dernier différentiel).
Copie uniquement données modifiées depuis dernière sauvegarde. Rapide mais restauration complexe (complète + tous incréments).
Photographie instantanée données à moment spécifique, permettant restauration à ce point.
Disque état solide sans pièces mobiles. Rapide (10000+ IOPS), faible latence, plus cher, consommation réduite.
Système stockage professionnel centralisé (NetApp, EMC) gérant multiples disques avec RAID, snapshots, réplication.
Règle de bonnes pratiques en sauvegarde de données : conserver 3 copies des données (1 originale + 2 sauvegardes), sur 2 supports différents (disque, bande, cloud), avec 1 copie hors site (protection contre sinistres locaux). Garantit une protection optimale contre la perte de données en cas de panne matérielle, erreur humaine ou catastrophe.
Technologie immutable. Écriture unique, lectures illimitées, pas suppression. Archivage légal.
Cas spécial MFA avec 2 facteurs.
Modèle sécurité : authentification (vérifier identité), autorisation (permissions), accounting (logs).
Service annuaire Microsoft gérant utilisateurs, ordinateurs, permissions entreprises.
Chiffrement symétrique standard (AES-128, AES-256). 256 bits = très sécurisé actuellement.
Vérification indépendante conformité sécurité.
Fonction hachage avec salting spécialisée mots passe, résistant attaques par force brute.
Tests standardisés mesurant et comparant les performances d'un système, d'une application ou d'une infrastructure selon des critères objectifs (vitesse de traitement, débit réseau, IOPS stockage, temps de réponse). Permettent d'évaluer les capacités réelles d'un équipement, de comparer différentes solutions entre elles, et d'identifier les goulots d'étranglement. Les benchmarks établissent une baseline de référence pour suivre l'évolution des performances dans le temps et valider que l'infrastructure répond aux exigences métier. Outils courants : Geekbench, SPECint, Iperf, FIO, Apache Bench.
Équipe défense réagissant attaques Red Team.
Réseau ordinateurs infectés contrôlés attaquant par attaquant pour DDoS, spam.
Organisme délivrant certificats SSL/TLS vérifiés (Let's Encrypt, Symantec, Digicert).
Proxy sécurité entre utilisateurs et applications cloud, audite et contrôle accès.
Certificat numérique authentifiant identité serveur et chiffrant connexion HTTPS.
Conversion données lisibles en forme illisible via clé, empêchant lecture non-autorisée.
Paire clés (publique chiffre, privée déchiffre) ou inversement. RSA, ECDSA. Lent mais résout problème distribution clés.
Même clé chiffre et déchiffre (AES, DES). Rapide, nécessite partager clé de manière sécurisée.
Clé secrète jamais partagée, utilisée déchiffrer ou signer.
Clé partagée librement, utilisée chiffrer ou vérifier signature.
Identifiant standard pour vulnérabilités publiées (CVE-2024-XXXXX).
Standard notation sévérité vulnérabilités (1-10). 9+ critique.
Ensemble des pratiques, technologies et processus visant à protéger les systèmes informatiques, réseaux et données contre les cyberattaques, accès non autorisés, vols ou destructions. Couvre la protection des infrastructures, la détection des menaces, la réponse aux incidents et la sensibilisation des utilisateurs pour garantir confidentialité, intégrité et disponibilité des informations.
Interfaces visuelles centralisées présentant en temps réel ou quasi-réel des indicateurs clés de performance (KPI) et métriques essentielles d'un système, d'une application ou d'une activité métier. Utilisent graphiques, jauges, courbes et alertes pour faciliter la supervision, l'analyse et la prise de décision rapide. Dans le contexte IT et datacenter, les dashboards agrègent données de monitoring (CPU, RAM, réseau, disponibilité), métriques applicatives, performances et incidents pour offrir une vue d'ensemble exploitable. Essentiels pour l'observabilité, les opérations DevOps et le pilotage stratégique.
Signature mathématique prouvant auteur et intégrité document sans révéler clé privée.
Système empêchant transfert données sensibles (exfiltration) vers destinations non-autorisées.
Méthode française de gestion des risques en cybersécurité développée par l'ANSSI. La version EBIOS Risk Manager permet d'identifier, d'analyser et de traiter les risques numériques en prenant en compte les enjeux métier, les menaces et les vulnérabilités. Largement utilisée dans les secteurs critiques et les administrations pour élaborer une stratégie de sécurité adaptée aux besoins de l'organisation et répondre aux exigences réglementaires.
Logiciel endpoints (PC, serveurs) détectant/répondant menaces.
Code exploitant vulnérabilité spécifique.
Système bloquant/autorisant trafic réseau basé règles (IP, ports, protocoles).
Fonction unidirectionnelle convertissant données quelconque en empreinte fixe unique (SHA-256, MD5, bcrypt).
HTTP chiffré par SSL/TLS. Authentification + confidentialité trafic web.
Système détectant activités malveillantes, alertant administrateurs.
Processus gérer incidents (détecter, contenir, éradiquer, restaurer).
Système bloquant activités malveillantes en temps réel, vs IDS qui détecte seulement.
Token stateless contenant claims utilisateur, utilisé APIs REST modernes.
Protocole authentification réseau utilisant tickets temporaires, standard entreprises Windows.
Protocole accédant services annuaire (Active Directory), authentification centralisée entreprises.
Authentification multiples facteurs : mot passe + code SMS/authenticator app/clé physique.
Agence fédérale américaine établissant des standards et bonnes pratiques en cybersécurité, technologie et innovation. Le NIST Cybersecurity Framework (CSF) est une référence mondiale pour la gestion des risques cyber, structurant la sécurité autour de cinq fonctions : Identifier, Protéger, Détecter, Répondre et Récupérer. Les publications NIST (Special Publications 800 series) définissent des recommandations techniques adoptées internationalement pour sécuriser les systèmes d'information, gérer les identités, chiffrer les données et assurer la conformité réglementaire.
Protocole autorisation permettant utilisateurs accorder applications accès ressources sans partager mot passe.
Test sécurité complet où experts tentent contourner défenses.
Protocole réseau centralisant authentification et autorisation.
Malware chiffrant données demandant rançon pour déchiffrage.
Équipe simulant attaquants testant défenses organisationnelles.
Malware cachant sa présence, obtenant accès root/admin.
Données aléatoires additionnées avant hachage, empêchant attaques par table arc-en-ciel.
Standard XML pour Single Sign-On (SSO) fédéré, utilisé entreprises pour authentifier utilisateurs multiples applications.
Violation sécurité (accès non-autorisé, données exposées, malware, service arrêté).
Mise à jour logicielle corrigeant vulnérabilités.
Fonction hachage moderne (256 bits). Standard sécurité actuellement.
Plateforme centralisant logs multiples sources pour détection menaces et forensique (Splunk, ELK, ArcSight).
Analyse identifiant menaces potentielles système et mitigations appropriées.
Protocoles chiffrement sécurisé. TLS 1.2 courant, TLS 1.3 plus rapide/sécurisé (2018).
Codes temporaires générés applications (Google Authenticator, Authy), basés temps.
Malware se faisant passer application inoffensive, exécutant actions malveillantes.
Malware nécessitant action utilisateur (ouverture fichier) pour se reproduire.
Tunnel chiffré reliant sites distants ou utilisateurs distants à réseau privé.
Scanner automatisé identifiant vulnérabilités système.
Firewall applicatif inspectant contenu HTTP détecter attaques (SQL injection, XSS).
Malware se reproduisant automatiquement sans intervention utilisateur.
Philosophie sécurité ne faisant confiance personne par défaut, vérifiant toutes requêtes.
Vulnérabilité non-connue publiquement, exploitée avant patch disponible.
Autorité française cybersécurité, délivrant qualifications SecNumCloud, Cloud de confiance.
Obligation notifier personnes et autorités violation données sous 72h.
Loi américaine autorisant autorités US accéder données sociétés américaines même hébergées hors États-Unis.
Label ANSSI pour cloud souverain français conforme exigences sécurité/souveraineté.
Conformité réglementations légales (RGPD, PCI-DSS, HIPAA, SOC 2).
Contrat entre responsable données et sous-traitant définissant obligations.
Responsable RGPD dans organisations, garant conformité et point contact autorités.
Analyse risques avant déployer nouveau système traitant données sensibles.
Loi américaine autorisant surveillance communications étrangères. Section 702 permet NSA collecter massivement.
Certification française obligatoire héberger données santé. Référentiel ASIP Santé.
Loi américaine protégeant données santé. Chiffrement end-to-end, logs audit, breach notification obligatoires.
Organisme international établissant des normes techniques, de qualité et de sécurité reconnues mondialement. Dans le contexte IT et datacenter, les principales certifications ISO incluent : ISO 27001 (sécurité de l'information), ISO 9001 (management de la qualité), ISO 14001 (management environnemental) et ISO 50001 (management de l'énergie).
Norme management environnemental (certifiable).
Norme internationale management sécurité information. Certification 3 ans, audits annuels obligatoires.
Directive européenne (2024) encadrant cybersécurité entités critiques (énergie, transports, santé, eau).
Standard sécurité pour organisations traitant cartes crédit. 12 domaines obligatoires.
Principe intégrer protection données conception systèmes, vs ajout après-coup.
Règlement européen (2018) encadrant traitement données personnelles. Droits: consentement, accès, rectification, suppression. Pénalités jusqu'à 4% CA ou 20M€.
Droit RGPD demander suppression données personnelles après inutilité originelle.
Qualification ANSSI attestant sécurité fournisseur cloud français/européen immunisé Cloud Act/FISA.
Framework audit sécurité organisationnelle (Trust Services Criteria). Type I (design) ou Type II (18 mois opération).
Engagement fournisseur alimenter par énergies renouvelables uniquement (compensation ou contrats PPAs).
Émissions carbone par unité production (g CO2/kWh énergie produite). France ~60 g/kWh (hydro-nucléaire), Allemagne ~400 g/kWh.
Compensation émissions carbone via projets réduction ailleurs (reboisement, énergies renouvelables).
Chaleur produite équipements informatiques comme sous-produit fonctionnement (serveur convertit ~100% électricité chaleur). Obligation légale depuis octobre 2025 la valoriser pour datacenters >1 MW.
Modèle économique minimisant déchets par reuse, refurbishment, recyclage.
Indicateur emissions carbone datacenter normalisées par output IT.
Quantité CO2 générée par activité IT (serveurs, transmission données, fabrication matériel). Calcul: énergie x source énergie.
Critères évaluer responsabilité entreprises au-delà finances : environnement, social, gouvernance.
Technique utilisant air extérieur froid refroidir datacenter sans climatisation mécanique. Efficace régions froides (Islande, Finlande), PUE proche 1.05.
Ensemble de pratiques et technologies visant à réduire l'empreinte environnementale des systèmes d'information tout au long de leur cycle de vie. Comprend l'optimisation de l'efficacité énergétique des datacenters (PUE), le choix de matériel éco-conçu, la virtualisation pour réduire le parc matériel, l'utilisation d'énergies renouvelables, la prolongation de la durée de vie des équipements, et le recyclage responsable (économie circulaire). Le Green IT s'inscrit dans une démarche RSE et répond aux enjeux de transition écologique et de conformité réglementaire.
Énergie chaleur terrestre. Haute densité stabilité Islande, Nouvelle-Zélande.
Énergie hydraulique utilisant cours eau/barrages. Exempla: datacenters Islande, Afrique centrale.
Refroidissement serveurs par circulation liquide (eau, fluide diélectrique) contact direct composants chauds (CPU, GPU). Types: direct-to-chip, immersion. Avantages: PUE <1.15, récupération chaleur haute température.
Réduction émissions Scope 1-3 zéro via elimination+compensation, différent carbon neutral.
Énergie photovoltaïque. Moins dense mais flexible, utilisée edge datacenters.
Contrat long-terme (10-20 ans) acheteur (datacenter) s'engage acheter production ferme éolienne/solaire.
Remise à neuf équipements usagés au lieu destruction.
Réutiliser chaleur fatale datacenter pour chauffage/eau chaude, améliorant efficacité globale.
Émissions directes opérations (carburant générateurs datacenter).
Émissions indirectes électricité achetée.
Émissions indirectes chaîne valeur (transport, fournisseurs, déchets).
Capacité maintenir practices long-terme sans dégrader environnement.
Indicateur consommation eau datacenter. Formule: Litres eau utilisés ÷ kWh énergie IT. Moyen mondial ~1.8 L/kWh, objectif <1.0 L/kWh.
Sources énergie non-dépletables : solaire, éolienne, hydraulique, géothermie.
Outil orchestration agentless configurant infrastructure.
Outil initialisation instances cloud au premier démarrage (scripts, configs).
Standard interface plugins networking containers.
Stockage configuration non-secrète Kubernetes (fichiers config, variables d'environnement).
Environnement léger isolé exécutant application avec dépendances (Docker, Podman).
Logiciel exécutant containers (Docker, containerd, CRI-O).
Composants Kubernetes centralisé prenant décisions (scheduler, API, controllers).
Composants exécutant workloads réels (kubelet sur nœuds, containers).
Descripteur Kubernetes définissant nombre replicas, image, etc.
Plateforme populaire containerisation, standard industrie.
Instance runtime créée à partir Docker image.
Template immuable définissant application + couches OS + dépendances.
Fichier texte définissant comment construire Docker image.
Datastore clé-valeur distribuée Kubernetes stockant état cluster.
Package manager Kubernetes facilitant déploiement applications complexes.
Couche logicielle virtualisant hardware, permettant multiples VMs sur hardware unique.
Orchestration containers open-source à grande échelle. De facto standard production.
Déplacement VM entre serveurs host sans downtime (technologies: VMware vMotion, KVM).
Isolation logique ressources Kubernetes dans cluster unique.
Standard ouvert définissant image et runtime containers.
Infrastructure cloud open-source IaaS (compute, storage, networking).
Unité Kubernetes plus petite, pouvant contenir 1+ containers étroitement couplés.
Plateforme hyperviseur/container virtualisation open-source, alternative VMware abordable.
Ressource stockage cluster Kubernetes.
Demande stockage persistent Kubernetes par pod.
Contrôle accès Kubernetes basé rôles utilisateurs/services accounts.
Stockage données secrètes Kubernetes (mots passe, tokens, certificats).
Abstraction exposant pods et load balancing.
Infrastructure logicielle gérant communication entre microservices (Istio, Linkerd).
Conteneur léger partageant pod/namespace avec application, observabilité/sécurité.
Photographie instantanée état VM (disque + RAM + état) permettant restore rapide.
Infrastructure as Code décrivant infrastructure cloud (templates JSON/YAML).
Hyperviseur bare-metal (direct hardware). VMware ESXi, Hyper-V, KVM. Performance optimale.
Hyperviseur hébergé (OS host). VirtualBox, Parallels. Flexible mais plus lent.
CPU virtualisé alloué VM. 2 vCPU = accès 2 cores physiques (partagé avec autres VMs).
Solution de sauvegarde, réplication et restauration de données pour environnements virtualisés (VMware, Hyper-V) et cloud. Veeam offre des fonctionnalités de récupération rapide, de réplication continue et de monitoring des sauvegardes pour assurer la continuité d'activité.
Solution d'infrastructure convergée développée par Cisco et IBM combinant serveurs, stockage, réseau et virtualisation dans une architecture pré-intégrée et validée, offrant évolutivité et simplification du déploiement.
Serveur virtualisé partageant hardware physique avec autres VMs via hyperviseur.
Mémoire RAM virtualisée allouée VM.
Platform VMware virtualisation complète (ESXi + vCenter).
Capacité automatique augmenter/diminuer instances selon charge AWS.
Cloud Microsoft concurrent AWS.
PaaS Microsoft, concurrent Heroku.
Serverless Microsoft, concurrent Lambda.
Serveurs virtuels Azure, concurrent EC2.
Service cloud gérant sauvegardes données.
Data warehouse GCP pour analytics massives.
Service cloud gérant déploiement containers sans gérer orchestration. Exemples: AWS ECS, Azure Container Instances.
Capital Expenditure (investissement initial) vs Operational Expenditure (coûts récurrents). Cloud = OpEx, on-premise = CapEx.
Cloud partagé organisations secteur similaire avec conformité commune (santé, finance).
Combinaison cloud privé + public avec orchestration entre deux. Données sensibles cloud privé (RGPD), applications web cloud public (scalabilité).
Infrastructure cloud dédiée unique organisation, isolée physiquement. Types: on-premise (capex élevé) ou hosted chez prestataire (compromis). Avantages: contrôle total, isolation. Inconvénients: coût plus élevé.
Infrastructure cloud partagée multiples clients (multi-tenant) opérée fournisseur. Avantages: coût initial bas, scalabilité. Inconvénients: partage données, moins contrôle.
Bases données gérées GCP.
Stockage objet GCP, concurrent S3.
Infrastructure as Code AWS (templates JSON/YAML).
CDN AWS.
Serveurs virtuels GCP, concurrent EC2.
Système de gestion de la relation client centralisant les interactions commerciales, le suivi des prospects, la gestion des ventes et du service après-vente. Permet d'optimiser les processus commerciaux, d'analyser le comportement client et d'améliorer la satisfaction et la fidélisation.
Base données complètement gérée cloud. Exemples: AWS RDS, Azure SQL Database, MongoDB Atlas.
Culture, pratiques et outils visant à unifier le développement logiciel (Dev) et les opérations IT (Ops) pour accélérer la livraison d'applications de qualité. Rompt avec les silos traditionnels en favorisant la collaboration, l'automatisation (CI/CD, Infrastructure as Code) et le monitoring continu. Les principes DevOps incluent l'intégration continue, le déploiement automatisé, les tests automatisés, la gestion de configuration et l'observabilité. Permet de réduire le time-to-market, d'augmenter la fréquence des déploiements tout en améliorant la fiabilité et la stabilité des systèmes.
Fournisseur cloud populaire développeurs.
Service cloud fournissant infrastructure reprise catastrophe sans gérer.
Service ou département d'une organisation responsable de la stratégie, de la gestion et de l'évolution du système d'information. La DSI pilote les projets IT, assure l'exploitation des infrastructures, garantit la sécurité et la conformité, et accompagne la transformation digitale de l'entreprise. Le DSI (Directeur des Systèmes d'Information) définit la feuille de route technologique en alignement avec les objectifs métier, gère le budget IT et supervise les équipes techniques.
Base données NoSQL gérée AWS (clé-valeur).
Serveurs virtuels AWS.
Coûts transfert données hors région/fournisseur cloud, souvent volontairement élevés.
Load balancer AWS (ALB, NLB, CLB).
Approche DevOps consistant à définir et gérer l'ensemble des environnements d'exécution (développement, test, staging, production) via du code versionné. Extension de l'Infrastructure-as-Code (IaC), l'EaC décrit de manière déclarative non seulement l'infrastructure (serveurs, réseaux, stockage) mais aussi la configuration applicative, les variables d'environnement, les secrets et les dépendances. Permet de garantir la reproductibilité, la cohérence entre environnements, de faciliter les déploiements et de réduire les erreurs de configuration. Utilise des outils comme Terraform, Ansible, Kubernetes ou Docker Compose.
Système informatique intégré centralisant et automatisant la gestion des processus métier d'une entreprise : comptabilité, ressources humaines, production, achats, stocks et ventes. Permet une vue unifiée des données et une optimisation des flux d'information entre départements.
Exécution fonction code évènement-déclenchée, sans gérer serveurs. Exemples: AWS Lambda, Azure Functions, Google Cloud Functions.
Cloud Google concurrent AWS/Azure.
PaaS populaire développeurs déploiement applications facilement.
Location ressources informatiques virtuelles (serveurs, stockage, réseau). Exemples: AWS EC2, Azure VMs, OVHcloud. Modèle: Opex, scalabilité immédiate.
Pratique DevOps consistant à définir, provisionner et gérer l'infrastructure IT (serveurs, réseaux, stockage, sécurité) via des fichiers de configuration versionnés plutôt que par des processus manuels. L'IaC utilise un langage déclaratif ou impératif pour décrire l'état désiré de l'infrastructure, permettant déploiements automatisés, reproductibles et cohérents. Facilite la gestion à grande échelle, réduit les erreurs humaines, accélère le provisionnement et permet le versioning avec rollback. Outils principaux : Terraform, Ansible, CloudFormation, Pulumi. Pilier fondamental des architectures cloud et DevOps modernes.
Capacité services/systèmes différents communiquer/intégrer.
Référentiel de bonnes pratiques pour la gestion des services IT (ITSM - IT Service Management) largement adopté mondialement. ITIL structure la gestion IT autour de processus standardisés couvrant la stratégie, la conception, la transition, l'exploitation et l'amélioration continue des services. Définit des rôles, responsabilités et workflows pour la gestion des incidents, problèmes, changements, configurations et capacités. La version actuelle ITIL 4 intègre les approches Agile et DevOps. Permet d'améliorer la qualité de service, d'optimiser les coûts et d'aligner l'IT sur les besoins métier avec des certifications reconnues.
Fonctions serverless AWS, paiement par exécution.
Service observabilité cloud (Datadog, New Relic, Prometheus Cloud).
Stratégie utilisant multiples fournisseurs cloud réduire vendor lock-in + augmenter disponibilité.
Plateforme d'automatisation open-source permettant de créer des workflows et d'interconnecter différentes applications et services via une interface visuelle. Propose plus de 400 intégrations natives et permet d'automatiser des tâches répétitives sans nécessiter de compétences en développement avancées.
Passerelle permettant instances privées initier connexions outbound.
Platform hosting static + serverless pour développeurs frontend.
Infrastructure informatique dans locaux organisationnels.
Expression désignant une solution unique censée convenir à tous les cas d'usage, souvent utilisée de manière critique dans l'IT. Contraste avec les approches personnalisées ou modulaires qui s'adaptent aux besoins spécifiques. Dans le contexte datacenter et cloud, fait référence aux offres standardisées non adaptables, alors que les architectures modernes privilégient la flexibilité et la personnalisation selon les exigences métier.
Cloud français SecNumCloud (filiale Iliad).
Fournisseur cloud français, OpenStack/public/privé.
Environnement développement/déploiement complet géré fournisseur. Vous gérez app, fournisseur gère infrastructure. Exemples: Google App Engine, Azure App Service, Heroku.
Chaîne automatisée de processus permettant d'intégrer, tester et déployer du code en production de manière continue et fiable. L'intégration continue (CI) compile et teste automatiquement chaque modification de code, détectant rapidement les erreurs. Le déploiement continu (CD) automatise la mise en production après validation des tests. Le pipeline orchestre ces étapes : récupération du code, compilation, tests unitaires, tests d'intégration, analyse de qualité, packaging et déploiement. Accélère les cycles de développement, réduit les erreurs humaines et améliore la qualité logicielle.
Capacité applications migrer entre cloud fournisseurs sans refonte majeure.
Bases données gérées AWS (MySQL, PostgreSQL, Oracle, SQL Server, MariaDB).
Indicateur financier mesurant la rentabilité d'un investissement en comparant le gain généré par rapport au coût initial. Calculé par la formule : (Gain - Coût) / Coût × 100. Dans le contexte IT et datacenter, le ROI évalue la pertinence économique des projets d'infrastructure, de migration cloud, d'automatisation ou de modernisation technologique. Permet de justifier les investissements en démontrant les gains financiers, gains de productivité ou économies d'exploitation attendus sur une période donnée.
Service DNS AWS.
Stockage objet illimité AWS, ~$0.023/GB.
Application complète accessible Internet, entièrement gérée fournisseur. Exemples: Office 365, Google Workspace, Salesforce, Slack, Notion.
Capacité d'un système informatique à s'adapter à une augmentation ou diminution de charge en ajustant ses ressources. La scalabilité verticale (scale-up) consiste à augmenter la puissance d'un serveur existant, tandis que la scalabilité horizontale (scale-out) ajoute des serveurs supplémentaires. Essentielle pour les architectures cloud et les applications à forte croissance, permettant d'absorber les pics de trafic tout en optimisant les coûts selon la demande réelle.
Fournisseur cloud européen startup-friendly.
Services sécurité cloud (WAF, antivirus, DLP).
Modèle cloud où fournisseur gère infrastructure automatiquement, vous déployez code. Facturation exécution. Avantages: scalabilité, paiement microsecondes. Inconvénients: latence cold-start, vendor lock-in.
Stockage cloud entièrement géré. Exemples: AWS S3, Azure Blob, Google Cloud Storage.
Subdivision VPC avec bloc IP.
Ensemble des perceptions, émotions et réactions d'un utilisateur lors de son interaction avec un produit, service ou interface numérique. L'UX englobe l'utilisabilité, l'accessibilité, la performance, l'esthétique et la satisfaction globale de l'utilisateur tout au long de son parcours. Discipline associant recherche utilisateur, architecture de l'information, prototypage et tests d'usage pour concevoir des expériences intuitives, efficaces et agréables. Une bonne UX réduit la friction, améliore la conversion, augmente la fidélisation et différencie un produit de ses concurrents. Complémentaire de l'UI (User Interface) qui se concentre sur l'aspect visuel.
Dépendance fournisseur spécifique empêchant migration facile (APIs propriétaires, formats données propriétaires, coûts sortie élevés).
Plateforme deployment applications Next.js/modern frontend.
Réseau virtuel isolé AWS personnalisable.
Pourcentage prédictions correctes.
Entité RL prenant décisions environnement pour maximiser récompense cumulative.
Domaine garantissant IA systèmes bénéfiques, alignés, robustes.
Système orchestration workflows données (DAGs).
Processus garantissant IA objectifs concordent intentions humaines.
Identification points/séquences anormales déviations patterns (fraude, sécurité).
Interface de programmation permettant à des applications ou services de communiquer et d'échanger des données de manière standardisée. Définit un ensemble de règles, protocoles et fonctions permettant aux développeurs d'accéder aux fonctionnalités d'un système sans en connaître l'implémentation interne.
Technique permettant modèles focus parties pertinentes entrée, révolutionnaire NLP.
Aire sous ROC curve, mesure performance global (0.5=aléatoire, 1=parfait).
Framework AutoML Amazon simple haute performance.
Plateforme MLOps Microsoft Azure.
Calcul gradients erreur rétro-propagation ajuster poids.
Entraînement multiples modèles subsets données, moyennes prédictions.
Sous-ensemble données traitées ensemble avant ajustement poids.
Technique ensemble construisant modèles itérativement corrigeant erreurs précédentes.
Technique prompting demandant LLM raisonner étape-par-étape avant réponse finale.
Interface conversationnelle OpenAI utilisant GPT.
Dataset déséquilibré classes minoritaires (5% classe rare), problème ML courant.
Prédire catégorie discrete (binaire, multi-classe).
LLM Anthropic, concurrent ChatGPT.
Grouper données points similaires (K-means, DBSCAN, hiérarchique).
Architecture réseaux traitant images convolutions (détection motifs locaux).
Recommandation basée similarités utilisateurs/items historiques interactions.
Recommandation basée similarités item attributs.
Loss fonction classification (entropie croisée).
Technique divisant données multiples folds évaluant généralisation.
Modèle génération images OpenAI.
Transformation données (rotations images, noise) augmentant diversité entraînement.
Annotation manuelle données créant ground truth entraînement supervisé.
Système versionning données modèles ML.
Sous-domaine ML utilisant réseaux neuronaux profonds (multiples couches).
Modèles génératifs état-de-art ajoutant bruit progressif apprentissant inversement.
Entraînement petit modèle reproduire comportement grand modèle, compression.
Arrêt entraînement détection overfitting sur données validation.
Représentation vectorielle mots/concepts capturant sémantique (Word2Vec, GloVe).
Combinaison multiples modèles (bagging, boosting, stacking) performance supérieure.
Une passe complète ensemble données entraînement au cours apprentissage.
Moyenne harmonique precision-recall, balancée pour imbalanced datasets.
Garantir modèles IA équitable à travers groupes démographiques.
Entraînement modèle pré-entraîné données spécialisées, adaptant à domaine spécifique.
Paire réseaux (generator, discriminator) en compétition créant données réalistes.
LLM OpenAI 175B paramètres, capable nombreuses tâches zero-shot.
LLM OpenAI plus capable que GPT-3 multimodal (texte+images).
Processeur spécialisé conçu initialement pour le rendu graphique, devenu essentiel pour le calcul parallèle massif en IA et machine learning. Composé de milliers de cœurs optimisés pour les opérations matricielles simultanées, permettant d'accélérer considérablement l'entraînement et l'inférence des modèles d'intelligence artificielle.
Algorithme optimisation ajustant poids dans direction réduisant erreur.
Plateforme automatisation ML H2O.ai.
Tendance LLM générer informations factuellement incorrectes présentées confiantes.
Communauté open-source modèles transformers, hub, libraries.
Ensemble de technologies permettant aux machines d'effectuer des tâches nécessitant normalement l'intelligence humaine : apprentissage, analyse, décision et génération de contenu. Inclut machine learning, deep learning et traitement du langage naturel.
Intelligence artificielle développée, hébergée et exploitée sur le territoire national ou européen, garantissant la maîtrise des données, des algorithmes et de l'infrastructure. Assure l'indépendance technologique, la conformité au RGPD, la protection des données sensibles et le respect des valeurs et réglementations locales face aux solutions extra-européennes.
Capacités cognitives propres à l'être humain incluant le raisonnement complexe, la créativité, l'intuition, l'empathie et la compréhension contextuelle. Dans le contexte IT et IA, l'IH est souvent mise en perspective avec l'IA (Intelligence Artificielle) pour souligner la complémentarité des approches : l'IA excelle dans le traitement de volumes massifs de données et les tâches répétitives, tandis que l'IH apporte jugement éthique, pensée critique et capacité d'adaptation face à des situations inédites.
Exécution modèle entraîné données entrée générer prédictions.
Capacité comprendre/expliquer décisions IA vs 'black box'.
Framework ML Google différentiation automatique composable.
API haut-niveau TensorFlow/PyTorch simplifiée apprentissage.
Framework Kubernetes orchestration ML pipelines.
Plateforme annotation données labeling actif.
Hyperparamètre contrôlant ampleur ajustements poids. Trop bas = très lent, trop haut = divergence.
Librairie gradient boosting Microsoft rapide mémoire-efficace.
Framework PyTorch simplifiant organisation code entraînement.
LLM open-source Meta (Llama 2, Llama 3), alternative propriétaire.
Modèle d'intelligence artificielle entraîné sur des volumes massifs de données textuelles pour comprendre et générer du langage naturel. Basé sur l'architecture Transformer, capable d'effectuer diverses tâches (rédaction, traduction, analyse, code) sans entraînement spécifique grâce à l'apprentissage sur des milliards de paramètres.
Technique fine-tuning efficace entraînant petit nombre paramètres supplémentaires vs reparamètrisant tout.
Fonction mesurant erreur prédictions, optimisée entraînement.
Type RNN amélioré mémorisant long-terme dépendances vs RNN basique.
Sous-domaine IA où algorithmes apprennent données sans programmation explicite, améliorant performance expérience.
Traduction automatique texte langues (Google Translate, DeepL).
Plateforme open-source lifecycle ML (tracking, packaging, deployment).
Loss régression (moyenne carrés erreurs).
Identification entités texte (personnes, lieux, organisations).
Structure mathématique mimant neurones biologiques, connectant nœuds couches par poids.
Librairie Python calculs numériques arrays.
GPU generation précédente H100, toujours haute performance.
GPU haut-de-gamme entraînement IA, 700W consommation, coûteux.
Détection/localisation objets images (YOLO, Faster R-CNN).
Modèle mémorisant données entraînement au lieu apprendre patterns généralisables, mauvaises performances tests.
Librairie Python manipulation données DataFrames.
Ensemble de processus automatisés et séquencés pour le développement et le déploiement de modèles d'intelligence artificielle. Incluent la collecte et préparation des données, l'entraînement, la validation, le test et le déploiement en production, avec versioning et monitoring des performances.
Fonction définissant actions agent prendre état donné.
Parmi prédictions positives, quel pourcentage vraiment positives.
Outil labeling données actif intégré ML workflows.
Instruction textuelle IA générative décrivant tâche requise.
Art écrire prompts effectifs guidant LLM comportement souhaité.
Framework ML Meta populaire recherche, facilité apprentissage.
Algorithme RL apprenant fonction Q estimant valeur action-état pairs.
Réduction précision modèle (float32 → int8) réduisant taille/latence, léger impact qualité.
Technique d'intelligence artificielle combinant la recherche d'informations dans une base de connaissances avec la génération de texte par LLM. Permet aux modèles d'IA de fournir des réponses contextualisées et précises basées sur des documents spécifiques, réduisant les hallucinations et permettant l'accès à des données à jour non présentes dans l'entraînement initial.
Parmi positives réelles, quel pourcentage prédites correctement.
Systèmes prédisant préférences utilisateurs suggérant items (Netflix, Amazon).
Prédire valeur continue.
Techniques (dropout, L1/L2, early stopping) réduisant overfitting.
Paradigme entraînement récompensant modèles actions bonnes, punis mauvaises.
Pratiques éthiques IA : transparence, équité, accountability, privacy.
Signal numérique RL guidant apprentissage agent.
Architecture traitant séquences (texte, temps) mémorisant état précédent.
Courbe trade-off true positive rate vs false positive rate.
Plateforme MLOps AWS.
Librairie Python ML classique (classification, regression, clustering).
Entraînement créant pseudo-labels données non-étiquetées, combinant avantages supervised/unsupervised.
Classification pixel-niveau images attribuant classe chaque pixel.
Classification sentiment texte (positif, négatif, neutre).
Conversion parole en texte (Whisper, Google Speech API).
Modèle diffusion open-source génération images texte.
Entraînement modèles données étiquetées (classification, régression).
Données générées artificiellement augmentant datasets ou protégeant privacy (GANs, diffusion).
Hyperparamètre contrôlant créativité LLM : température haute = plus créatif/aléatoire, basse = plus conservateur.
Framework ML Google open-source flexible production-ready.
Données finales évaluant modèle, jamais vues entraînement.
Conversion texte en parole synthétisée.
Prédiction valeurs futures séries temporelles (actions, météo, trafic).
Unité texte codée (mot, sous-mot, caractère). Coûts LLM facturation tokens.
Processeur spécialisé Google entraînement IA ultra-efficace.
Données entraînement modèles.
Réutilisation modèles entraînés tâches apparentées, économisant données/compute.
Architecture basée attention remplaçant RNNs, permettant parallélisation entraînement. Base LLMs modernes.
Librairie HuggingFace accédant milliers modèles pré-entraînés.
Modèle trop simple capturer patterns données, mauvaises performances entraînement et tests.
Entraînement modèles données non-étiquetées (clustering, dimensionality reduction).
Données évaluation modèles pendant entraînement (ajustement hyperparamètres).
Fonction estimant récompense cumulative future état/action.
Base données stockant vecteurs embeddings pour recherche sémantique rapide (Pinecone, Weaviate, Milvus).
Plateforme MLOps Google Cloud.
Plateforme tracking expériences ML, logging models.
Librairie gradient boosting ultra-efficace compétitions ML.