Modifications

git + site
Ligne 9 : Ligne 9 :  
Maintenant nous avons aussi un nouvel objectif qui nous a été demandé par notre tuteur qui est de participer à une pré-coupe de France de robotique sur Grenoble avec l'université et les INP ce 6 Mai 2020.
 
Maintenant nous avons aussi un nouvel objectif qui nous a été demandé par notre tuteur qui est de participer à une pré-coupe de France de robotique sur Grenoble avec l'université et les INP ce 6 Mai 2020.
 
Ainsi notre objectif est d'avoir un robot fonctionnel pour faire des essaies d'ici le 1 Avril 2020.
 
Ainsi notre objectif est d'avoir un robot fonctionnel pour faire des essaies d'ici le 1 Avril 2020.
 +
 +
== Résolution du problème du site web [MUSARD Corentin] ==
 +
Depuis quelques semaines, le site crashait régulièrement et n'arrivait pas à se connecter à la base de données. On m'a donné accès au compte admin sur l'hebergeur pour que je puisse trouver une solution. J'ai commencé à regarder vers les erreurs d'apache, le serveur http, pour déterminer la cause du problème.
 +
 +
On peut y trouver ce message :
 +
 +
<nowiki>Got error 'PHP message: PHP Warning:  mysqli_set_charset(): Error executing query in /htdocs/wp-includes/wp-db.php on line 792\nPHP message: WordPress database error User 'polyb890990' has exceeded the 'max_queries_per_hour' resource (current value: 40000) for query</nowiki>
 +
 +
On voit donc que l'hébergeur limite le nombre de requêtes SQL à 40 000 par heure et qu'on dépasse cette limite. C'est étrange de dépasser ce nombre pour un site utilisé par environ 20 personnes.
 +
 +
On continue la recherche en regardant cette fois du côté des logs d'accès.
 +
 +
<nowiki>2a01:4f8:190:740d::2 - - [04/Nov/2020:20:34:54 +0100] "GET /wiki/index.php?title=Sp%C3%A9cial:Journal&amp;page=Coupe%20de%20France%202019/2020 HTTP/1.1" 200 5165 "-" "Mozilla/5.0 (compatible; MJ12bot/v1.4.8; http://mj12bot.com/)"</nowiki>
 +
 +
On peut y voir plein de lignes lié à des bots tel que PetalBot, DotBot ou MJ12bot. Ce sont des crawlers, ils parcourent tous les sites web pour créer par la suite des moteurs de recherches ou des analyses du web. Pour nous, ils sont génants donc on va devoir les bloquer pour libérer le traffic du site.
 +
 +
On va modifier le fichier <code>.htaccess</code>, c'est un fichier de configuration d'Apache. On va bloquer les bots grâce à leur User-Agent.
 +
 +
<nowiki>RewriteCond %{HTTP_USER_AGENT} (PetalBot|DotBot|MJ12bot) [NC]
 +
RewriteRule .* - [F,L]</nowiki>
 +
 +
* NC pour No Case, permet de match sans prendre en compte la casse.
 +
* F pour Forbidden, permet de renvoyer une réponse 403 au bot.
 +
* L pour Last, permet d'arrêter la requete imédiatement pour minimiser l'impact de la requête sur le serveur.
 +
 +
Avec ces deux lignes, les bots seront bloqués dès le serveur http et donc n'auront pas accès au site et par conséquent ne feront pas de requête SQL inutile.
 +
 +
Problème résolu.
    
== Robot 1 ==
 
== Robot 1 ==
Ligne 42 : Ligne 70 :     
==Guide git [MUSARD Corentin]==
 
==Guide git [MUSARD Corentin]==
 +
J'ai réalisé une vidéo expliquant comment utiliser git, gitlab et sublime-merge.
 +
 +
Cette vidéo montre :
 +
* le fonctionnement de GitLab
 +
* comment faire un fork
 +
* comment clone un repo grâce à sublime-merge
 +
* une visualisation d'un projet git avec des commits et des branches
 +
* le concept de branche locale et de branche distante
 +
* la création d'une branche local à partir d'une branche distante
 +
* la création d'un commit
 +
* comment push des commit sur la branche distante
 +
* la création d'une merge request
 +
* la création d'une nouvelle branche
 +
* le changement de branche
 +
* la différence d'un fork à un clone direct et l'intéret de le faire
 +
* comment récuperer (fetch) les modifications du serveur distant
 +
 +
J'ai également rajouté des parties dans le guide, tel que une explication de la commande <code>stash</code>, une explication du fichier <code>.gitignore</code> et des liens vers de la documentation.
35

modifications