Les handlers
Objectif de cet atelier pratique
- Intégrer par la pratique un autre concept fondamental d'Ansible : les handlers
Démarrer le labo
Placez-vous dans le répertoire du onzième atelier pratique :
Voici les quatre machines virtuelles de cet atelier :
| Machine virtuelle | Adresse IP |
|---|---|
control |
192.168.56.10 |
target01 |
192.168.56.20 |
target02 |
192.168.56.30 |
target03 |
192.168.56.40 |
Toutes ces VM tournent sous Debian. Démarrez-les :
Connectez-vous au Control Host :
L'environnement de cet atelier est préconfiguré et prêt à l'emploi :
-
Ansible est installé sur le Control Host.
-
Le fichier
/etc/hostsdu Control Host est correctement renseigné. -
L'authentification par clé SSH est établie sur les trois Target Hosts.
-
Le répertoire du projet existe et contient une configuration de base et un inventaire.
-
Direnv est installé et activé pour le projet.
-
Le validateur de syntaxe
yamllintest également disponible.
Rendez-vous dans le répertoire du projet :
$ cd ansible/projets/ema/
direnv: loading ~/ansible/projets/ema/.envrc
direnv: export +ANSIBLE_CONFIG
$ ls -l
total 12
-rw-r--r-- 1 vagrant vagrant 65 Sep 19 11:13 ansible.cfg
-rw-r--r-- 1 vagrant vagrant 135 Sep 19 11:13 inventory
drwxr-xr-x 2 vagrant vagrant 4096 Sep 19 11:13 playbooks
L'inventaire des machines définit un groupe [debian] avec les trois Target
Hosts :
[debian]
target01
target02
target03
[debian:vars]
ansible_python_interpreter=/usr/bin/python3
ansible_user=vagrant
ansible_become=yes
Testez la connectivité à vos cibles :
$ ansible debian -m ping
target01 | SUCCESS => {
"changed": false,
"ping": "pong"
}
target02 | SUCCESS => {
"changed": false,
"ping": "pong"
}
target03 | SUCCESS => {
"changed": false,
"ping": "pong"
}
Ajouter une redirection
Exécutez le playbook apache-01.yml du précédent atelier pratique :
Pour commencer, nous allons étoffer notre playbook en ajoutant une redirection :
- name: Configure redirect
copy:
dest: /etc/apache2/conf-available/redirect.conf
content: |
Redirect /start http://www.startpage.com
Sur les systèmes Debian, ce genre de configuration doit être intégrée à l'aide
de la commande a2enconf qui crée un lien symbolique dans le répertoire
adjacent /etc/apache2/conf-enabled. Le paramètre creates garantit
l'idempotence de la tâche :
- name: Activate redirect
command:
cmd: a2enconf redirect
creates: /etc/apache2/conf-enabled/redirect.conf
L'idempotence de la tâche
La commande a2enconf est définie par le paramètre cmd du module
command. On pourrait très bien se contenter de ce seul paramètre. Dans
ce cas, Ansible exécuterait la commande à chaque invocation du playbook
en affichant un changement, étant donné que les commandes ne sont jamais
idempotentes par défaut.
C'est le paramètre creates qui garantit l'idempotence ici. Il indique le
chemin vers un fichier (ou un lien symbolique dans notre cas). Si le
fichier (ou le lien symbolique) en question est déjà présent sur le
système, Ansible fait l'impasse sur l'exécution de la commande et affiche
ok.
Il ne reste plus qu'à prendre en compte cette nouvelle configuration :
Exécutez le playbook avec les tâches que nous venons de définir :
$ ansible-playbook apache-01.yml --start-at-task="*redirect*"
PLAY [debian] *****************************************************************
TASK [Gathering Facts] ********************************************************
ok: [target02]
ok: [target03]
ok: [target01]
TASK [Configure redirect] *****************************************************
changed: [target03]
changed: [target02]
changed: [target01]
TASK [Activate redirect] ******************************************************
changed: [target02]
changed: [target03]
changed: [target01]
TASK [Reload Apache] **********************************************************
changed: [target01]
changed: [target02]
changed: [target03]
PLAY RECAP ********************************************************************
target01 : ok=4 changed=3 unreachable=0 failed=0 skipped=0 rescued=0 ...
target02 : ok=4 changed=3 unreachable=0 failed=0 skipped=0 rescued=0 ...
target03 : ok=4 changed=3 unreachable=0 failed=0 skipped=0 rescued=0 ...
Testez le résultat dans un navigateur web ou plus simplement avec curl :
$ curl target01/start
<!DOCTYPE HTML PUBLIC "-//IETF//DTD HTML 2.0//EN">
<html><head>
<title>302 Found</title>
</head><body>
<h1>Found</h1>
<p>The document has moved <a href="http://www.startpage.com">here</a>.</p>
<hr>
<address>Apache/2.4.62 (Debian) Server at target01 Port 80</address>
</body></html>
Avec l'idempotence c'est mieux
À première vue, tout se passe comme prévu. Le problème ici, c'est que les états
reloaded et restarted du module service ne sont jamais idempotents.
Autrement dit : le rechargement du service s'effectue dans tous les cas,
peu importe s'il y a eu un changement dans la configuration ou non.
Et c'est précisément dans ce genre de situation où nous allons utiliser un handler : une tâche qui est appelée uniquement lorsqu'il y a eu un changement.
Dans un premier temps, nous allons modifier la tâche qui effectue le changement
en question. La section notify envoie une notification au handler :
- name: Configure redirect
copy:
dest: /etc/apache2/conf-available/redirect.conf
content: |
Redirect /start http://www.startpage.com
notify: Reload Apache
La tâche en question va déménager dans une nouvelle section handlers qui se
situe au même niveau que la section tasks :
Dans l'état actuel des choses, il n'y aura rien de nouveau sous le soleil. Pour voir notre handler en action, il nous suffit de modifier la redirection comme ceci par exemple :
- name: Configure redirect
copy:
dest: /etc/apache2/conf-available/redirect.conf
content: |
Redirect /start https://www.startpage.com
notify: Reload Apache
Voici la nouvelle mouture de notre playbook dans son intégralité :
--- # apache-01.yml
- hosts: debian
tasks:
- name: Update package information
apt:
update_cache: true
cache_valid_time: 3600
- name: Install Apache
apt:
name: apache2
- name: Start & enable Apache
service:
name: apache2
state: started
enabled: true
- name: Install custom web page
copy:
dest: /var/www/html/index.html
mode: 0644
content: |
<!doctype html>
<html>
<head>
<meta charset="utf-8">
<title>Test</title>
</head>
<body>
<h1>My first Ansible-managed website</h1>
</body>
</html>
- name: Configure redirect
copy:
dest: /etc/apache2/conf-available/redirect.conf
content: |
Redirect /start https://www.startpage.com
notify: Reload Apache
- name: Activate redirect
command:
cmd: a2enconf redirect
creates: /etc/apache2/conf-enabled/redirect.conf
handlers:
- name: Reload Apache
service:
name: apache2
state: reloaded
...
Et voici le résultat des courses :
$ ansible-playbook apache-01.yml --start-at-task="*redirect*"
PLAY [debian] *****************************************************************
TASK [Gathering Facts] ********************************************************
ok: [target02]
ok: [target03]
ok: [target01]
TASK [Configure redirect] *****************************************************
changed: [target03]
changed: [target02]
changed: [target01]
TASK [Activate redirect] ******************************************************
ok: [target03]
ok: [target02]
ok: [target01]
RUNNING HANDLER [Reload Apache] ***********************************************
changed: [target01]
changed: [target03]
changed: [target02]
PLAY RECAP ********************************************************************
target01 : ok=4 changed=2 unreachable=0 failed=0 skipped=0 rescued=0 ...
target02 : ok=4 changed=2 unreachable=0 failed=0 skipped=0 rescued=0 ...
target03 : ok=4 changed=2 unreachable=0 failed=0 skipped=0 rescued=0 ...
Quelques remarques en vrac :
-
Un handler est identifié par son nom.
-
La notification est envoyée dans la section
notifyde la tâche. -
Les handlers sont exécutés à la fin d'un play le cas échéant.
Forcer l'exécution d'un handler
Il arrive assez régulièrement que vous ayez besoin d'exécuter un handler
avant la fin d'un play. Dans ce cas, vous pouvez forcer l'exécution de
tous les handlers notifiés jusqu'ici en utilisant la commande suivante
dans le playbook :
Un peu de ménage
Quittez le Control Host :
Supprimez toutes les VM :
À vous de jouer !
Placez-vous dans le répertoire du douzième atelier pratique :
Voici les quatre machines virtuelles de cet atelier :
| Machine virtuelle | Adresse IP |
|---|---|
control |
192.168.56.10 |
target01 |
192.168.56.20 |
target02 |
192.168.56.30 |
target03 |
192.168.56.40 |
Les VM tournent toutes sous Rocky Linux. Démarrez-les :
Connectez-vous au Control Host :
L'environnement de cet atelier est préconfiguré et prêt à l'emploi :
-
Ansible est installé sur le Control Host.
-
Le fichier
/etc/hostsdu Control Host est correctement renseigné. -
L'authentification par clé SSH est établie sur les trois Target Hosts.
-
Le répertoire du projet existe et contient une configuration de base et un inventaire.
-
Direnv est installé et activé pour le projet.
-
Le validateur de syntaxe
yamllintest également disponible.
Rendez-vous dans le répertoire du projet :
$ cd ansible/projets/ema/
direnv: loading ~/ansible/projets/ema/.envrc
direnv: export +ANSIBLE_CONFIG
$ ls -l
total 8
-rw-r--r--. 1 vagrant vagrant 65 Sep 19 14:26 ansible.cfg
-rw-r--r--. 1 vagrant vagrant 128 Sep 19 14:26 inventory
drwxr-xr-x. 2 vagrant vagrant 6 Sep 19 14:26 playbooks
L'inventaire des machines définit un groupe [redhat] avec les trois Target
Hosts :
[redhat]
target01
target02
target03
[redhat:vars]
ansible_python_interpreter=/usr/bin/python3
ansible_user=vagrant
ansible_become=yes
Écrivez un playbook chrony.yml qui assure la synchronisation NTP de tous
vos Target Hosts :
-
Installez le paquet
chrony. -
Activez et démarrez le service
chronydcorrespondant. -
Jetez un œil sur le fichier de configuration
/etc/chrony.conffourni par défaut. -
Installez une configuration personnalisée (cf. ci-dessous).
-
Prenez en compte cette nouvelle configuration.
-
Vérifiez la syntaxe correcte de votre playbook
chrony.yml. -
Vérifiez l'idempotence de votre playbook.
Voici la configuration à installer :
# /etc/chrony.conf
server 0.fr.pool.ntp.org iburst
server 1.fr.pool.ntp.org iburst
server 2.fr.pool.ntp.org iburst
server 3.fr.pool.ntp.org iburst
driftfile /var/lib/chrony/drift
makestep 1.0 3
rtcsync
logdir /var/log/chrony
Recharger vs. redémarrer le service
Le service chronyd n'accepte pas la directive reloaded. Autrement dit,
vous devez passer par un systemctl restart chronyd pour prendre en charge
la nouvelle configuration. Il faudra donc utiliser la directive restarted
dans le module service.
La rédaction de cette documentation demande du temps et des quantités significatives de café espresso. Vous appréciez ce site ? Offrez un café au rédacteur en cliquant sur la tasse.

