Compare commits

..

1 Commits

Author SHA1 Message Date
d16ccae801 maj pour elk-filebeat-cli 2024-01-26 10:04:52 +01:00
21 changed files with 29 additions and 114 deletions

View File

@ -1,14 +1,12 @@
---
- hosts: localhost
connection: local
become: yes
roles:
- base
- goss
- r-ext
- zabbix-cli
- snmp-agent
- ssh-cli
# - syslog-cli
- post

View File

@ -1,7 +1,6 @@
---
- hosts: localhost
connection: local
become: yes
roles:
- base
@ -10,5 +9,5 @@
- ssh-cli
# - syslog-cli
- dhcp
- zabbix-cli
- snmp-agent
- post

View File

@ -1,31 +1,22 @@
---
- name: Récupération de filebeat
get_url:
url: "http://s-adm.gsb.adm/gsbstore/filebeat-{{ BEATVER }}-amd64.deb"
url: http://s-adm.gsb.adm/gsbstore/filebeat-${BEATVAR}-amd64.deb
dest: /tmp/
- name: Installation de filebeat
apt:
deb: "/tmp/filebeat-{{ BEATVER }}-amd64.deb"
deb: /tmp/filebeat-${BEATVEAR}-amd64.deb
- name: Chgt filebeat.yml - localhost:9200 - Elastic
replace:
path: /etc/filebeat/filebeat.yml
regexp: 'localhost:9200'
replace: 's-elk.gsb.adm:9200'
backup: yes
- name: sorie pou debug
fail:
msg: "packet installe"
- name: Chgt filebeat.yml - localhost:5601 - Kibana
replace:
path: /etc/filebeat/filebeat.yml
regexp: 'localhost:5601'
replace: 's-elk.gsb.adm:5601'
backup: yes
#- name: Changement du fichier de conf
# copy:
# src: filebeat.yml
# dest: /etc/filebeat/filebeat.yml
- name: Changement du fichier de conf
copy:
src: filebeat.yml
dest: /etc/filebeat/filebeat.yml
- name: Configuration de filebeat
shell: filebeat modules enable system

View File

@ -1,16 +0,0 @@
# Rôle Gotify
***
Rôle gotify pour la notification Zabbix et pas que
## Que fait le rôle gotify ?
Le rôle gotify va installer gotify en binaire, il s'agit d'une installation basic sans https.
***
## Identifiant
***
Admin
Admin
***

View File

@ -1,19 +0,0 @@
Ce script Bash a pour objectif d'automatiser le processus de sauvegarde du serveur NextCloud, qui est exécuté dans un environnement Docker.
## 1. Activation du mode maintenance :
- La première commande Docker est utilisée pour mettre le serveur NextCloud en mode maintenance. Cette mesure préventive garantit qu'aucune modification n'est apportée pendant la sauvegarde, assurant ainsi la cohérence des données.
## 2. Copie des fichiers de sauvegarde :
- La commande `cd /root/nxc` change le répertoire de travail vers `/root/nxc`.
- Ensuite, la commande `rsync -Aavx nextcloud/ nextcloud-dirbkp/` effectue une copie récursive des fichiers du dossier `nextcloud/` vers `nextcloud-dirbkp/`. Ceci crée une copie locale des fichiers de NextCloud à des fins de sauvegarde.
## 3. Sauvegarde de la base de données MySQL/MariaDB :
- La ligne suivante utilise `docker compose exec` pour exécuter la commande `mysqldump` dans le conteneur de la base de données. Cela génère une sauvegarde de la base de données NextCloud qui est enregistrée dans le fichier `nextcloud-sqlbkp.bak`.
## 4. Désactivation du mode maintenance :
- Après la sauvegarde, une autre commande Docker est utilisée pour désactiver le mode maintenance de NextCloud, permettant ainsi la reprise normale des opérations.
## 5. Création d'une archive compressée :
- Enfin, la dernière ligne crée une archive compressée `nxc.tgz` qui regroupe la sauvegarde de la base de données (`nextcloud-sqlbkp.bak`) et la copie locale des fichiers NextCloud (`nextcloud-dirbkp/`).
Ce script simplifie et automatise le processus de sauvegarde de NextCloud en mettant en place la mise en mode maintenance, la copie des fichiers locaux, la sauvegarde de la base de données, la désactivation du mode maintenance, et la création d'une archive compressée consolidant l'ensemble des éléments de sauvegarde.

View File

@ -16,5 +16,5 @@
copy:
src: /root/id_rsa_sbackup
dest: /var/www/html/gsbstore
mode: 0644
mode: 0600
remote_src: yes

View File

@ -1,9 +0,0 @@
# récupération d'une clé publique
Ce script permet de récupérer un clé publique créer depuis la machine s-adm:
1. Création du répertoire .ssh :
- Il crée le répertoire `~/.ssh` avec des permissions strictes (0700) pour l'utilisateur.
2. Récupération de la clé privée :
- Il télécharge une clé privée depuis l'URL spécifiée (`http://s-adm.gsb.adm/gsbstore/id_rsa_sbackup`) et la place dans le répertoire `~/.ssh` avec le nom `id_rsa_sbackup`.
- La clé privée est configurée avec des permissions strictes (0600) pour garantir la sécurité.

View File

@ -1,9 +0,0 @@
# script de récupération de la clé publique générer par s-adm
Ce script Ansible utilise le module `ansible.posix.authorized_key` pour gérer les clés SSH autorisées sur un système conforme aux normes POSIX. Plus précisément, la tâche vise à garantir la présence d'une clé publique spécifiée dans le fichier des clés autorisées pour l'utilisateur `root`.
- `user: root` : Indique que la clé SSH est associée à l'utilisateur root.
- `state: present` : Spécifie que la clé doit être présente dans le fichier des clés autorisées. Si la clé n'existe pas, elle sera ajoutée.
- `key: http://s-adm.gsb.adm/gsbstore/id_rsa_sbackup.pub` : Indique l'URL à partir de laquelle la clé publique (`id_rsa_sbackup.pub`) doit être récupérée. Ansible télécharge la clé publique depuis cette URL et l'ajoute au fichier des clés autorisées pour l'utilisateur root.
Ce script Ansible assure que la clé publique spécifiée est présente dans le fichier des clés autorisées pour l'utilisateur root sur un système compatible POSIX, en récupérant la clé publique à partir de l'URL fournie.

View File

@ -17,7 +17,7 @@ Attendre la fin de l'installation. Ensuite lancer le scipt r-vp1-post.sh
### 🛠️ Lancer le script r-vp1-post.sh
```bash
cd tools/ansible/gsb2024/scripts
cd /tools/ansible/gsb2023/Scripts
```
```bash
bash r-vp1-post.sh
@ -30,7 +30,7 @@ Puis lancer le script r-vp2-post.sh pour récuperer le fichier de configuration
### 🛠️ Lancer le script
```bash
cd tools/ansible/gsb2024/scripts
cd /tools/ansible/gsb2023/Scripts
```
```bash
bash r-vp2-post.sh
@ -44,4 +44,4 @@ reboot
Veuillez maintenant vous rendre dans le dossier du role ferm :
*gsb2024/roles/fw-ferm*
*Modification : jm*
*Modification : jm*

View File

@ -1,3 +1,3 @@
SERVER: "127.0.0.1"
SERVERACTIVE: "192.168.99.8"
TOKENAPI: "a44e2a4977d61a869437739cb6086ae42f4b9937fbb96aed24bbad028469a1cf"
TOKENAPI: "f72473b7e5402a5247773e456f3709dcdd5e41792360108fc3451bbfeed8eafe"

View File

@ -1,9 +1,9 @@
- name: Installation paquet zabbix agent
- name: Intallation paquet zabbix agent
get_url:
url: "https://repo.zabbix.com/zabbix/6.4/debian/pool/main/z/zabbix-release/zabbix-release_6.4-1+debian12_all.deb"
dest: "/tmp"
- name: Installation paquet zabbix agent suite
- name: Intallation paquet zabbix agent suite
apt:
deb: "/tmp/zabbix-release_6.4-1+debian12_all.deb"
state: present
@ -12,7 +12,7 @@
apt:
update_cache: yes
- name: Installation Zabbix agent
- name: Intallation Zabbix agent
apt:
name: zabbix-agent
state: present
@ -33,6 +33,6 @@
src: hostcreate.sh.j2
dest: /tmp/hostcreate.sh
- name: lancement script hostcreate
command: bash /tmp/hostcreate.sh
#- name: lancement script hostcreate
#command: bash /tmp/hostcreate.sh

View File

@ -10,12 +10,6 @@ Rôle zabbix-srv pour la supervision des différentes machines
Le rôle zabbix-srv va installer `apache2` pour le serveur web, `zabbix-server` pour la supervision et `zabbix-agent` pour gérer les clients, **Zabbix** qui sera notre outil de supervision.
La base de données est importée depuis une sauvegarde existante sur s-adm qui contient les clés API pour la notification gotify.
Lors de l'éxecution du playbook, les identifiants de la BDD sont crées avec le nom d'utilisateur "zabbix" et le mot de passe "password" pour se connecter a la BD importée.
Lors de l'éxecution du playbook, les identifiants de la BDD sont crées avec le nom d'utilisateur "zabbix" et le mot de passe "password".
Pour l'identifiant de Zabbix, c'est "Admin" et le mot de passe "zabbix", à l'adresse <http://s-mon/zabbix>.
## Notification Zabbix avec gotify
Ce rôle installe la base pour pouvoir faire des notification avec gotify, la base importée est pre-configurer pas besoin de rajouter le media gotify. Le serveur gotify est sur s-backup et est accessible via s-backup.gsb.adm:8008.

View File

@ -1,7 +0,0 @@
#!/bin/bash
ALERTSENDTO=$1
ALERTSUBJECT=$2
ALERTMESSAGE=$3
curl -X POST "http://s-backup.gsb.adm:8008/message?token=$ALERTSENDTO" -F "title=$ALERTSUBJECT" -F "message=$ALERTMESSAGE" -F "priority=5" > /dev/null 2>&1

View File

@ -1,8 +1,6 @@
---
- hosts: localhost
connection: local
become: yes
roles:
- base

View File

@ -1,7 +1,6 @@
---
- hosts: localhost
connection: local
become: yes
vars:
stork_db_user: "stork-server"
stork_db_passwd: "Azerty1+"

View File

@ -1,17 +1,14 @@
---
- hosts: localhost
connection: local
become: yes
# include: config.yml
roles:
- base
- zabbix-cli
- goss
- zabbix-cli
- goss
- dns-master
- webautoconf
- elk-filebeat-cli
# - journald-snd
- journald-snd
- ssh-cli
- post

View File

@ -1,7 +1,7 @@
---
- hosts: localhost
connection: local
become: yes
#vars:
#glpi_version: "10.0.11"
#glpi_dir: "/var/www/html/glpi"

View File

@ -1,8 +1,7 @@
---
- hosts: localhost
connection: local
become: yes
roles:
- base
- goss

View File

@ -30,7 +30,7 @@ function create_vm{ param([string]$nomvm)
} else {
#Importation depuis l'ova
& "$vboxmanage" import "$ovafile" --vsys 0 --vmname "$nomvm"
Write-Host "Machine $nomvm importée"
Write-Host "Machine $nomvm importée"
}
}

View File

@ -1,4 +1,4 @@
#!/bin/bash
!/bin/bash
#Ancien scipt 2023
#stoper le fw