Migrer votre WordPress en https

Il ne suffit pas d’activer un certificat, voici les actions à faire.

1. Installer le certificat ssl

2. Modifier l’url dans WordPress

Rendez-vous dans l’administration de votre WordPress, section Réglages > Général. Il vous faudra modifier l’url en https.

3. Modifier les urls dans la base de donnée

Nous recommandons l’utilisation de ce script gratuit en license GPLv3 :
https://interconnectit.com/products/search-and-replace-for-wordpress-databases/

4. Rediriger en https permanent

Sous Apache, la modification se fait dans le fichier de configuration via l’interface prévue à cet effet ou dans le fichier .htaccess (nous recommandons la première méthode).

Sous IIS, voici une méthode simplifié :
https://blog.rdmedias.com/iis-7-redirect-force-et-fixe-http-https
ou une méthode plus avancée :
https://aboutssl.org/iis-redirection-http-to-https/

5. Mettre à jour le fichier robot.txt

http://robots-txt.com/ressources/robots-txt-https/

6. Déclarer votre site en HTTPS sur Google Search et recharger la sitemap

A priori pas besoin car désormais google n’implique pas de modification de HTTP > HTTPS :

https://support.google.com/webmasters/answer/83106?hl=fr

7. Mettre à jour sur Google Analytics

8. Tester sur www.sslabs.com/ssltest/

Please follow and like us:
error0

ASP.NET 4.0+ Request Validation Error et Web.config Ciblé

Le problème à résoudre concerne la « Request Validation » qui empêche de recevoir certains caractères comme notamment les balises < … >
Il s’agit d’une requête POST qui sera traitée, analysée puis enregistrée via LINQ, les strings seront donc « parameterized ».
Cependant, cela n’est pas le cas de l’ensemble du site nous devons donc appliquer cela à une zone donnée.

  1.  validateRequest= »false »
    ce paramètre permet de supprimer la validation en .NET 2.0
    Il s’insère soit dans la page ciblée :

    soit dans le fichier Web.config :

     
  2. <httpRuntime requestValidationMode= »2.0″ />
    A partir d’ASP.NET 4 ou plus, cet élément du Web.config est indispensable pour que l’annulation du REQUEST VALIDATION soit prise en compte.
    En effet, depuis ASP.NET 4, la validation de la requête se fait plus tôt dans le cycle de vie de la page.

     
  3. « location » : Ciblage d’une page ou d’un répertoire
    La touche finale, il faut impérativement n’affecter que les pages concernées, à cette fin nous utilisons un élement du Web.config qui permet de cibler une location :

     
  4. Le résultat final est celui-ci :

     

Sources :
https://msdn.microsoft.com/en-us/library/hh882339(v=vs.110).aspx
https://msdn.microsoft.com/en-us/library/b6x6shw7(v=vs.100).aspx

 

 

Please follow and like us:
error0

CRON UNIX: faire un bon script php

En mode « URL », tout CRON UNIX tente de télécharger la page.
Ainsi, si aucune information n’est reçue par l’outil de téléchargement, celui-ci considère qu’une erreur est survenue (time-out) et tente à nouveau le téléchargement.
Cela peut avoir des conséquence extrêmement violente comme l’écroulement de la machine ou des erreurs de données.
Aussi, TOUT script php ayant vocation a être utiliser comme CRON ne peut se prémunir du code suivant :

Nous ne pourrons être tenu responsables des dommages occasionnés par un script mal écris. Il en est de la responsabilité du client d’informer son développeur.

Please follow and like us:
error0

IIS Rewrite : SEO rewrite language

Voici comment interpréter une url et la transformer

 

Please follow and like us:
error0

IIS Rewrite : Redirect 301 au lieu d’erreur 404

Cette règle est à placer après les rewriting. Elle vérifie si un répertoire ou un fichier existe et redirige le cas échéant.

 

Please follow and like us:
error0

Alerte météo : recrudescence des bots et crawlers de site.

Bonjour,

Les robots sont légion sur internet et peuvent gêner le fonctionnement de votre site :

  • Certains sont « bienveillants » comme googleBot et bingbot qui ne désirent que vous référencer.
  • D’autres sont malveillants et cherchent sans relâche des sites non mis à jour (WordPress, Joomla, etc) afin de les transformer en esclave pour spammer le net.

Dans le premier cas, nous vous recommandons de ne jamais oublier le fichier robots.txt celui-ci est un incontournable et vous ne pourrez vous en prendre qu’à vous même si votre site, ou pire votre serveur devient indisponible lorsqu’un robot (bien que bienveillant) passe par là.

  1. Plus d’information sur le fichier robots.txt ici
  2. Tous les robots bienveillants respectent les paramètres allow/disallow du robots.txt
  3. Certains sont sensibles au paramètre crawl-delay
  4. Concernant googleBot, celui-ci doit aussi faire l’objet d’une attention particulière car google ignore certains paramètres comme « crawl-delay »
    https://www.google.com/webmasters/tools
  5. Concernant bingbot, il n’ignore pas crawl-delay, mais il faut se rendre ici pour affiner certains paramètres :
    http://www.bing.com/toolbox/webmaster/

Dans le second cas, notre pare-feu dispose de règles (dites IPS) qui vous protègent contre certaines requêtes malveillantes.
Toutefois, certains types d’attaques ne sont pas détectables. Nous pouvons affiner ces règles pour votre serveur (notamment Ubuntu), afin d’empêcher un nombre trop important de connections qui pourraient rendre votre site ou votre serveur inaccessible (DDoS).

Cependant, de bonnes pratiques de programmation peuvent vous aider :

  1. Récupérer le moins possible de données lors d’une requête SQL (en effet SQL traitera plus rapidement une boucle que votre code ASP/PHP/etc).
  2. Mettre en cache les requêtes les plus courantes (exemple: la requête qui récupère le menu de navigation)
  3. Ne faire des jointures SQL que sur des INT ou BIGINT (une jointure sur un champ VARCHAR ou NVARCHAR est extrêmement coûteux en temps et en ressource système)
  4. Mettre des index sur les critères de recherche les plus utilisés, mais ne pas abuser des index.
  5. Testez vos requêtes (par exemple : via phpmyadmin et la fonction EXPLAIN)

Trojan-horse-virus

N’oubliez pas que de la rapidité de vos pages dépend de votre classement sur les moteurs de recherche !

En effet, plus vos pages seront longues à s’afficher ou indisponibles plus votre classement sera affecté !

Le second critère le plus important est la localisation de vos serveurs, vous êtes chez un hébergeur 100% Français !

Please follow and like us:
error0

Installer un cgi sur nos serveurs Linux/Ubuntu

Etape 1 : Uploader le cgi sur le serveur

Vous trouverez l’accès FTP pour votre site via la console : « Listing des Sites / Emails » > Votre Site > « FTP »
Le fichier CGI est à déposer dans le répertoire cgi-bin présent à la racine du FTP
Enfin, grâce à votre client FTP modifiez les Permissions du propriétaire en ajoutant l’exécution.

Etape 2 : Activer les CGIs dans la configuration du site

La configuration se trouve dans la section : « Listing des Sites by Apache »
Pour y accéder, cliquez sur le bouton « Modifier VHost » dans la colonne « Gestion / Création » de votre site
Ensuite, supprimez les commentaires (supprimer les #) pour les lignes suivantes :

Après validation, la configuration du serveur apache sera « reload » (les sessions en cours ne sont pas détruites).

Votre CGI est prêt à fonctionner et accessible à cette adresse : http://votre.site/cgi-bin/votre.cgi

Important : Merci de vérifier vos règles de rewriting (notamment pour les sites wordpress, joomla, prestashop, etc) car il est possible que le rewriting empêche l’accès aux CGI! 

Si toutefois votre CGI ne fonctionnait pas ou nécessiterait l’installation d’un module complémentaire pour son fonctionnement merci de nous contacter afin de vous apporter notre aide.

 

Please follow and like us:
error0

SMTP : Adresse IP expéditrice

En cas de plusieurs IP sur le serveur de mail (notamment pour éviter l’utilisation du port 32000), certains MTA refusent la connexion pour cause de Spam.

La vérification est la suivante :
1/ Reverse DNS sur l’IP de connexion existe ?
2/ Si oui, résolution l’adresse IP -> nom DNS
3/ Pour boucler, résolution nom DNS dans IP

Si l’adresse n’est pas la même, le MTA adverse refuse la connexion.
Pour corriger ça, il faut mettre l’adresse IP sortante dans l’onglet option du domaine concerné.

Please follow and like us:
error0