Architectures Edge Et Fog Computing

CCST Networking (Cisco Certified Support Technician)Cloud & IoT

Architectures Edge et Fog Computing

Définition

L'Edge Computing consiste à traiter les données au plus près de leur source (capteurs, appareils IoT, sites distants) plutôt que de tout envoyer vers un datacenter cloud central. Le Fog Computing est un modèle intermédiaire qui distribue le traitement entre les appareils edge et le cloud, formant une architecture à 3 niveaux (Edge → Fog → Cloud).

Contexte

Certaines applications IoT et industrielles nécessitent une latence ultra-faible (< 10 ms) incompatible avec un aller-retour vers le cloud (50-200 ms). D'autres produisent un volume de données trop important pour être transmis intégralement (véhicules autonomes : ~4 To/jour). L'Edge et Fog Computing résolvent ces problèmes. La certification CCST attend du candidat qu'il comprenne ces architectures et leur lien avec l'IoT.

Détails techniques

Architecture à 3 niveaux

┌──────────────────────────────────┐
│          CLOUD                   │  Stockage massif, analytics avancés, ML training
│  (AWS, Azure, GCP)              │  Latence : 50-200 ms
├──────────────────────────────────┤
│          FOG LAYER               │  Agrégation, pré-traitement, décisions locales
│  (Passerelles, serveurs locaux) │  Latence : 5-20 ms
├──────────────────────────────────┤
│          EDGE DEVICES            │  Capteurs, actuateurs, caméras, automates
│  (IoT, PLC, capteurs)          │  Latence : < 1 ms (traitement local)
└──────────────────────────────────┘

Cloud vs Edge vs Fog

Critère Cloud Fog Edge
Localisation Datacenter distant Réseau local / campus Sur l'appareil ou à côté
Latence 50-200 ms 5-20 ms < 1-5 ms
Bande passante requise Élevée (tout remonte) Moyenne (données filtrées) Faible (traitement local)
Capacité de calcul Illimitée (scalable) Modérée Limitée
Stockage Illimité Modéré (cache temporaire) Minimal
Cas d'usage Analytics, archivage, ML training Agrégation, décisions régionales Temps réel, réponse immédiate

Cas d'usage par architecture

Scénario Architecture Pourquoi
Véhicule autonome (freinage d'urgence) Edge Latence < 1 ms obligatoire, pas le temps d'aller au cloud
Usine 4.0 (surveillance de chaîne de montage) Fog Agrégation locale des données de 500 capteurs, alertes en temps réel
Analyse de tendances de ventes annuelles Cloud Volume massif, pas de contrainte temps réel
Vidéosurveillance avec détection de mouvement Edge+Cloud Détection locale (edge), stockage et analyse forensique (cloud)
Smart grid (réseau électrique intelligent) Fog Coordination régionale des sources d'énergie distributed

Technologies Edge et Fog

Technologie Rôle
Cisco IOx Plateforme edge computing sur routeurs et switches Cisco (applications conteneurisées)
AWS IoT Greengrass Exécution de fonctions Lambda et ML en local sur les appareils edge
Azure IoT Edge Modules edge déployés sur des appareils Linux (conteneurs Docker)
NVIDIA Jetson GPU edge pour l'IA embarquée (vision, NLP)
MEC (Multi-access Edge Computing) Edge computing au niveau de l'antenne 5G (opérateur télécom)

Considérations réseau

Aspect Détail
Fiabilité Les nœuds edge/fog doivent fonctionner même si la connexion cloud est coupée (mode offline)
Sécurité Les appareils edge sont physiquement exposés → chiffrement local, secure boot, TPM
Synchronisation Les données traitées localement doivent être synchronisées avec le cloud quand la connectivité revient
Bande passante L'edge réduit le trafic WAN en ne remontant que les données agrégées ou les alertes
Gestion Les nœuds edge/fog doivent être gérés à distance (provisioning, mise à jour OTA)

Exemple concret

Scénario : une chaîne de supermarchés déploie un système de détection de produits périmés par vision artificielle.

  1. Edge : une caméra IP avec processeur embarqué (NVIDIA Jetson Nano) analyse en temps réel les dates de péremption des produits en rayon. Si un produit est périmé → alerte immédiate au personnel (latence < 500 ms).
  2. Fog : un serveur local dans le magasin agrège les données des 20 caméras, stocke les images des 7 derniers jours, et envoie un rapport horaire au cloud (réduction de bande passante : seules les alertes et statistiques remontent, pas les flux vidéo bruts).
  3. Cloud (Azure) : stockage long terme, tableau de bord national pour les 200 magasins, entraînement hebdomadaire du modèle de ML avec les nouvelles données.
  4. Réseau : chaque magasin est connecté au cloud via SD-WAN avec QoS (priorité aux alertes, best-effort pour les rapports).