PowerShell :
Get-NetConnectionProfile
Pour récupérer l’Index des cartes puis :
Set-NetConnectionProfile -InterfaceIndex <index number> -NetworkCategory < Private ou Public >
PowerShell :
Get-NetConnectionProfile
Pour récupérer l’Index des cartes puis :
Set-NetConnectionProfile -InterfaceIndex <index number> -NetworkCategory < Private ou Public >
RD v3 dernière ligne droite !
Après la migration avec succès de nos VMs sur un Cloud ESX de toute dernière génération, nous finalisons notre upgrade avec le changement de nos FireWalls physiques et Load Balancers sur des produits d’actualité. Cela impliquera une coupure réseau totale d’environ 30 minutes, juste le temps de migrer les règles de sécurité actuelles et réactiver les routes à travers notre BGP multi opérateurs.
Afin de vous apporter la meilleure sécurité qu’il soit, nous poursuivons notre première idée vieille de 20 ans en conservant un cluster de haute disponibilité en doublant toute la tête de pont : Switches BGP, Anti DDos, FireWalls et Load Balancers. A ce propos une offre PRA pour vos VMs vous sera proposée dans les semaines à venir avec une copie de nos ESX sur le data center Free Pro de Lyon.
Merci pour votre compréhension et merci aux équipes de Free Pro pour leur implication,
Hébergement vôtre.
Une seule commande :
1 |
sysdm.cpl |
Ci-dessous la liste des machines qui seront migrées vers notre Cloud 3.0, seule une coupure de 30 à 60 minutes est à prévoir selon la taille des disques durs.
Lundi 30 octobre 2023 à partir de 12h
Mardi 31 Octobre 2023 à partir de 12h
3 MAJ sont à réaliser, tous les serveurs infogérés seront traités cette nuit.
Vendredi 18/08 à partir de 21h, on migre le serveur de mails Cassis vers notre Cloud de dernière génération. Une coupure de 1 à 2h est à prévoir, merci par avance pour votre compréhension.
22h00 : VM ré injectée avec succès dans le nouveau Cloud, on lance la synchronisation, le retour à la normale se fera dans quelques dizaines de minutes …
22h23 : services relancés avec succès, bonne soirée.
Bonjour, on rencontre une attaque sur le serveur de mails depuis 14h05, on y travaille afin de rétablir un service stable …
15h50 : tous les services sont relancés.
Explication : on s’est pris des millions d’io qui a saturé le serveur de mails et une partie du cloud, on a isolé le serveur de mails, déplacé les machines impactées, bloqué l’attaque et relancé tous les services.
Bonjour,
Suite à des modifications importantes dans les règles de backup (préparation à la migration dans le cloud 3.0, et renforcement des règles de sécurité en matière de backup), une partie du Cloud 2.0 est inaccessible depuis 6h ce matin, ça n’impacte que le serveur de mails et quelques machines, on travaille au rétablissement des services dans les meilleurs délais …
9h00 : tous les services sont de nouveau UP, on va analyser la défaillance et corriger le tir pour les nuits prochaines.
3 MAJ à réaliser avec reboot obligatoire.
Tous les serveurs infogérés seront traités cette nuit.
Bonjour,
Suite à un jour de coupure d’Internet et de tous nos services en date du 30/05/2023, nous nous devions de venir faire un point.
Un incident de climatisation du site a eu lieu entre le 30/05/2023 à 20h42 et le 31/05/2023 à 11h15
suite à une perte de pression du réseau d’eau glacée alimentant les unités de climatisation des
salles informatiques.
Suite à une succession de trois fuites d’eau sur le réseau secondaire d’eau glacée (boucle
d’alimentation des unités de climatisation des salles informatiques) et à la perte de pression dans
la boucle d’eau glacée qui en a résulté, une montée en température importante dans les salles
informatiques du site a eu lieu.
La prise en compte des défauts et des alarmes remontées au niveau des logiciels de supervision
a été défaillante en début d’incident et a occasionné un délai dans la prise en compte de l’incident
et dans le déclenchement des opérations de remédiation. Ce sujet est au cœur des analyses sous
le pilotage direct de la Direction Générale de l’entreprise.
Les équipes d’exploitation ont été contraintes de couper progressivement l’alimentation électrique
des salles informatiques dans le but de protéger les équipements des clients, conserver l’intégrité
des infrastructures et éviter un départ de feu éventuel suite à un emballement thermique. Pendant
cette période nous avons néanmoins maintenu nos infrastructures essentielles et le backbone
réseau opérationnels.
Les équipes d’interventions présentes sur site se sont réparties sur les 3 actions correctives
suivantes :
la coupure électrique a provoqué la casse de :
Après le remplacement de tous les switches réseau, nous avons pu commencer à vérifier l’état matériel de notre réseau, notre cloud et les serveurs physiques.
A 22h le 31 mai, nous avons attaqué le remplacement des switches BGP (tête de pont réseau), à 3h45 le 01 juin tout le réseau était de nouveau accessible.
Entre le 31 mai et le 1er juin, nous avons relancé tous les serveurs virtuels sans perte de données aucune, la réplication ayant fonctionné pour certaines VM qui avaient subi une altération lors de l’arrêt brusque de courant (principalement les serveurs Linux).
Certaines parties du réseau comportaient des dysfonctionnements, nous avons pu isoler chaque route défectueuse et remplacer ou corriger les switches qui posaient souci. la sécurité employée à travers nos fireWalls physiques et les vlan clients imposent des règles très strictes à tout point de vue du réseau et demande beaucoup de précision lors de toute intervention réseau.
Malgré cette panne fort gênante pour l’activité de nos clients il faut retenir quelques point positifs :
D’ici quelques semaines on vous présentera certains points que nous sommes en train d’améliorer …
Bien sincèrement,
l’équipe de RD medias