Compare commits
21 Commits
v0.0.2a-ps
...
v0.0.2q-em
Author | SHA1 | Date | |
---|---|---|---|
edbce48966 | |||
56f3780480 | |||
5eae26a67c | |||
7711d023e8 | |||
1777bec595 | |||
12621bb60a | |||
592843932c | |||
abfe277180 | |||
c2eb2b85a4 | |||
c20f44ec6e | |||
0c7d48caf3 | |||
12de1c8891 | |||
5fffbc77e2 | |||
b1e87cdd1e | |||
7f7207cf46 | |||
1187a5e28d | |||
8cef3cbf6b | |||
49ca8325e8 | |||
08973e83b3 | |||
79c7bd34e6 | |||
0cd9f1bb4c |
49
README.md
49
README.md
@ -1,35 +1,40 @@
|
||||
# gsb2023
|
||||
|
||||
2023-01-18 ps
|
||||
2023-01-25 ps
|
||||
|
||||
Environnement et playbooks ansible pour le projet GSB 2023
|
||||
|
||||
## Quickstart
|
||||
prérequis :
|
||||
Prérequis :
|
||||
* une machine Debian Bullseye
|
||||
* VirtualBox
|
||||
* fichier machines viruelles ova :
|
||||
* debian-bullseye-gsb-2023a.ova
|
||||
* debian-buster-gsb-2023a.ova
|
||||
* fichier machines viruelles **ova** :
|
||||
* **debian-bullseye-gsb-2023a.ova**
|
||||
* **debian-buster-gsb-2023a.ova**
|
||||
|
||||
|
||||
|
||||
## Les machines
|
||||
* s-adm : routeur adm, DHCP + NAT, deploiement, proxy squid
|
||||
* s-infra : DNS maitre
|
||||
* r-int : routaage, DHCP
|
||||
* r-ext : routage, NAT
|
||||
* s-proxy : squid
|
||||
* s-itil : serveur GLPI
|
||||
* s-backup : DNS esclave + sauvegarde s-win
|
||||
* s-mon : supervision avec **Nagios4** et syslog
|
||||
* s-fog : deploiement postes de travail avec **FOG**
|
||||
* s-win : Windows Server 2019, AD, DNS, DHCP, partage fichiers
|
||||
* s-nxc : NextCloud avec **docker**
|
||||
* s-elk : pile ELK dockerisée
|
||||
* s-lb : Load Balancer **HaProxy** pour application Wordpress
|
||||
* r-vp1 : Routeur VPN Wireguard coté siège
|
||||
* r-vp2 : Routeur VPN Wireguard coté agence, DHCP
|
||||
* **s-adm** : routeur adm, DHCP + NAT, deploiement, proxy squid
|
||||
* **s-infra** : DNS maitre, autoconfiguration navigateurs avec **wpad**
|
||||
* **r-int** : routage, DHCP
|
||||
* **r-ext** : routage, NAT
|
||||
* **s-proxy** : squid
|
||||
* **s-itil** : serveur GLPI
|
||||
* **s-backup** : DNS esclave + sauvegarde s-win (SMB)
|
||||
* **s-mon** : supervision avec **Nagios4**, notifications et syslog
|
||||
* **s-fog** : deploiement postes de travail avec **FOG**
|
||||
* **s-win** : Windows Server 2019, AD, DNS, DHCP, partage fichiers
|
||||
* **s-nxc** : NextCloud avec **docker**
|
||||
* **s-elk** : pile ELK dockerisée
|
||||
* **s-lb** : Load Balancer **HaProxy** pour application Wordpress (DMZ)
|
||||
* **r-vp1** : Routeur VPN Wireguard coté siège
|
||||
* **r-vp2** : Routeur VPN Wireguard coté agence, DHCP
|
||||
* **s-agence** : Serveur agence
|
||||
* **s-lb** : Load Balancer **HaProxy** pour application Wordpress
|
||||
* **s-lb-web1** : Serveur Wordpress 1 Load Balancer
|
||||
* **s-lb-web2** : Serveur Wordpress 2 Load Balancer
|
||||
* **s-lb-db** : Serveur Mariadb pour Wordpress
|
||||
* **s-lb-nfs** : Serveur NFS pour application Wordpress
|
||||
|
||||
|
||||
## Les playbooks
|
||||
@ -39,7 +44,7 @@ prérequis :
|
||||
|
||||
On utilisera l'image de machine virtuelle suivante :
|
||||
* **debian-bullseye-2023a.ova** (2023-01-06)
|
||||
* Debian Bullseye 11 - 2 cartes - 1 Go - stockage 20 Go
|
||||
* Debian Bullseye 11.6 - 2 cartes - 1 Go - stockage 20 Go
|
||||
|
||||
|
||||
### Machine s-adm
|
||||
|
@ -1,7 +1,9 @@
|
||||
package:
|
||||
# ferm:
|
||||
# installed: true
|
||||
strongswan:
|
||||
wireguard:
|
||||
installed: true
|
||||
wireguard-tools:
|
||||
installed: true
|
||||
port:
|
||||
udp:68:
|
||||
@ -10,7 +12,7 @@ service:
|
||||
# dnsmasq:
|
||||
# enabled: true
|
||||
# running: true
|
||||
strongswan:
|
||||
wireguard:
|
||||
enabled: true
|
||||
running: true
|
||||
ssh:
|
||||
@ -51,6 +53,13 @@ command:
|
||||
- 4 received = 1
|
||||
stderr: []
|
||||
timeout: 10000
|
||||
command:
|
||||
ping -c 4 10.0.0.2:
|
||||
exit-status: 0
|
||||
stdout:
|
||||
- 4 received = 1
|
||||
stderr: []
|
||||
timeout: 10000
|
||||
#process:
|
||||
# dnsmasq:
|
||||
# running: true
|
||||
@ -64,4 +73,4 @@ interface:
|
||||
enp0s9:
|
||||
exists: true
|
||||
addrs:
|
||||
- 192.168.1.2/24
|
||||
- 192.168.1.2/24
|
||||
|
@ -1,11 +1,25 @@
|
||||
---
|
||||
- name: Installation d'HAproxy
|
||||
apt: pkg=haproxy state=present update_cache=yes
|
||||
- name: install haproxy
|
||||
apt:
|
||||
name: haproxy
|
||||
state: present
|
||||
|
||||
- name: Fichier de configuration
|
||||
copy: src=haproxy.cfg dest=/etc/haproxy/haproxy.cfg
|
||||
notify:
|
||||
- restart haproxy
|
||||
- name: parametre backend et fontend
|
||||
blockinfile:
|
||||
path: /etc/haproxy/haproxy.cfg
|
||||
block: |
|
||||
frontend proxypublic
|
||||
bind 192.168.56.2:80
|
||||
default_backend fermeweb
|
||||
|
||||
backend fermeweb
|
||||
balance roundrobin
|
||||
option httpclose
|
||||
#option httpchk HEAD / HTTP/1.0
|
||||
server web1.test 192.168.56.3:80 check
|
||||
#server web2.test 192.168.56.4:80 check
|
||||
|
||||
- name: Copie de goss
|
||||
copy: src=goss.yaml dest=/root
|
||||
- name: redemarre haproxy
|
||||
service:
|
||||
name: haproxy
|
||||
state: restarted
|
||||
enabled: yes
|
||||
|
@ -2,34 +2,36 @@
|
||||
|
||||
Nextcloud et Traefik fonctionnent grâce à docker. Pour pouvoir faire fonctionner ce playbook, docker doit être installé.
|
||||
|
||||
## Premièrement
|
||||
## 1.
|
||||
|
||||
Le playbook va créer le dossier nxc à la racine de root. Deux fichier docker-compose "nextcloud.yml" et "traefik.yml" y seront copiés depuis le répertoire "files" du playbook.
|
||||
Enfin, dans le répertoire nxc, seront créé les dossier certs et config.
|
||||
Le playbook crée le dossier **nxc** à la racine de root.
|
||||
|
||||
### Deuxièmement
|
||||
Les fichiers "nextcloud.yml" et "traefik.yml" y seront copiés depuis le répertoire "files" du playbook.
|
||||
|
||||
Le playbook va copier les fichiers placés dans "files" et les placer dans les bons répertoires.
|
||||
Enfin, dans le répertoire nxc, sont créés les répertoires **certs** et **config**.
|
||||
|
||||
#### Troisièmement
|
||||
## 2. Copie des fichiers
|
||||
|
||||
Le playbook va créer un certificat x509 grâce à mkcert, il s'agit d'une solution permettant de créer
|
||||
des certificats auto-signés. Pour cela il télécharge mkcert sur s-adm (utiliser le getall).
|
||||
Le playbook copie les fichiers placés dans "files" et les placer dans les bons répertoires.
|
||||
|
||||
mkcert sera placé dans : /usr/local/bin/
|
||||
## 3. Génération du certificat
|
||||
|
||||
Pour créer le certificat le playbook va executer des lignes de commandes (lancé depuis nxc/) :
|
||||
Le playbook crée un certificat **x509** grâce à **mkcert**, il s'agit d'une solution permettant de créer des certificats auto-signés. Pour cela, il télécharge **mkcert** sur **s-adm** (utiliser le script **getall**).
|
||||
|
||||
**mkcert** est placé dans : /usr/local/bin/
|
||||
|
||||
Pour créer le certificat, le playbook exécute les commandes (lancé depuis nxc/) :
|
||||
```
|
||||
/usr/local/bin/mkcert -install # Installe mkcert
|
||||
/usr/local/bin/mkcert -key-file key.pem -cert-file cert.pem "hôte.domaine.local" "*.domaine.local" #Crée le certificat le DNS spécifié
|
||||
```
|
||||
##### Quatrièmement
|
||||
## 4. Lancement
|
||||
|
||||
Le playbook va lancer les fichier "docker-compose" à savoir : nextcloud.yml et traefik.yml.
|
||||
Cela va installer les solutions automatiquement. Nextcloud est alors fonctionnel avec
|
||||
un proxy inverse qui va rediriger en HTTPS.
|
||||
Le playbook lance les fichiers "docker-compose" à savoir : nextcloud.yml et traefik.yml qui démarrent les deux piles **docker**.
|
||||
|
||||
Nextcloud est alors fonctionnel avec le proxy inverse **traefik** assurant la redirection vers HTTPS.
|
||||
|
||||
|
||||
ATTENTION : Après avoir relancé la VM, executez le script "nxc-start.sh" afin d'installer les piles applicatives.
|
||||
Une fois le script fini, accedez au site :
|
||||
https://s-nxc.gsb.lan
|
||||
ATTENTION : Après avoir relancé la VM, executez le script "nxc-start.sh" afin d'installer les piles applicatives.
|
||||
|
||||
Une fois le script terminé, le site est disponible ici : https://s-nxc.gsb.lan
|
||||
|
@ -8,37 +8,30 @@ iface lo inet loopback
|
||||
# Reseau N-adm
|
||||
allow-hotplug enp0s3
|
||||
iface enp0s3 inet static
|
||||
address 192.168.99.12
|
||||
netmask 255.255.255.0
|
||||
address 192.168.99.12/24
|
||||
|
||||
|
||||
# Reseau liaison avec r-ext
|
||||
allow-hotplug enp0s8
|
||||
iface enp0s8 inet static
|
||||
address 192.168.200.254
|
||||
netmask 255.255.255.0
|
||||
address 192.168.200.254/24
|
||||
gateway 192.168.200.253
|
||||
up ip route add default via 192.168.200.253
|
||||
|
||||
|
||||
# Reseau wifi
|
||||
allow-hotplug enp0s9
|
||||
iface enp0s9 inet static
|
||||
address 172.16.65.254
|
||||
netmask 255.255.255.0
|
||||
address 172.16.65.254/24
|
||||
|
||||
|
||||
# Reseau user
|
||||
allow-hotplug enp0s10
|
||||
iface enp0s10 inet static
|
||||
address 172.16.64.254
|
||||
netmask 255.255.255.0
|
||||
address 172.16.64.254/24
|
||||
|
||||
|
||||
# Reseau infra
|
||||
allow-hotplug enp0s16
|
||||
iface enp0s16 inet static
|
||||
address 172.16.0.254
|
||||
netmask 255.255.255.0
|
||||
up /root/routagenat
|
||||
address 172.16.0.254/24
|
||||
|
||||
|
@ -3,11 +3,11 @@
|
||||
- name: Copie du fichier sysctl.conf
|
||||
copy: src=sysctl.conf dest=/etc/
|
||||
|
||||
- name: copier le script de routage
|
||||
copy: src=routagenat dest=/root/
|
||||
#- name: copier le script de routage
|
||||
# copy: src=routagenat dest=/root/
|
||||
|
||||
- name: rendre executabe le script
|
||||
shell: chmod +x /root/routagenat
|
||||
#- name: rendre executabe le script
|
||||
# shell: chmod +x /root/routagenat
|
||||
|
||||
#- name: exectuer le script
|
||||
# script: /root/routagenat
|
||||
|
@ -1,27 +1,51 @@
|
||||
#!/bin/bash
|
||||
|
||||
BDIR=/home/backup
|
||||
SWIN=/tmp/s-win
|
||||
LOCK=/tmp/s-backup.lock
|
||||
|
||||
#Fonction cleanup pour sortir propre dans tout les cas
|
||||
cleanup()
|
||||
{
|
||||
rm "${LOCK}"
|
||||
umount "${SWIN}"
|
||||
echo "nettoyage effectue, sortie tout propre ..."
|
||||
exit 3
|
||||
}
|
||||
|
||||
#check si pas deja en cours d execution > sortie si fichier de lock existe
|
||||
if [ -e "${LOCK}" ] ; then
|
||||
echo "$0 : Verrouillage, deja en cours d execution"
|
||||
trap cleanup 1 2 3 6
|
||||
fi
|
||||
#prepartion des dossiers qui vont accueillir les donnees à sauvegarder
|
||||
[ -d "${BDIR}" ] || mkdir "${BDIR}"
|
||||
[ -d "${BDIR}" ] || mkdir "${BDIR}/s-win"
|
||||
[ -d "${BDIR}/s-win" ] || mkdir "${BDIR}/s-win"
|
||||
[ -d "${SWIN}" ] || mkdir "${SWIN}"
|
||||
|
||||
mount -t cifs -o ro,vers=3.0,username=u-backup,password=Azerty1+ //s-win/commun "${SWIN}"
|
||||
#etablissement du lock
|
||||
touch "${LOCK}"
|
||||
|
||||
mount -t cifs -o ro,vers=3.0,username=uBackup,password=Azerty1+ //s-win/commun "${SWIN}"
|
||||
if [ $? != 0 ] ; then
|
||||
echo "$0 : erreur montage ${SWIN}"
|
||||
exit 1
|
||||
rm "${LOCK}"
|
||||
trap cleanup 1 2 3 6
|
||||
fi
|
||||
rsync -av "${SWIN}/" "${BDIR}/s-win/commun"
|
||||
umount "${SWIN}"
|
||||
|
||||
|
||||
mount -t cifs -o ro,vers=3.0,username=u-backup,password=Azerty1+ //s-win/public "${SWIN}"
|
||||
mount -t cifs -o ro,vers=3.0,username=uBackup,password=Azerty1+ //s-win/public "${SWIN}"
|
||||
if [ $? != 0 ] ; then
|
||||
echo "$0 : erreur montage"
|
||||
exit 2
|
||||
echo "$0 : erreur montage ${SWIN}"
|
||||
trap cleanup 1 2 3 6
|
||||
fi
|
||||
rsync -av "${SWIN}/" "${BDIR}/s-win/public"
|
||||
umount "${SWIN}"
|
||||
|
||||
#libere le verrou
|
||||
rm "${LOCK}"
|
||||
|
||||
exit 0
|
||||
|
||||
|
5
roles/wireguard-l/README.md
Normal file
5
roles/wireguard-l/README.md
Normal file
@ -0,0 +1,5 @@
|
||||
#ajout du sleep 5
|
||||
|
||||
éditer "/etc/init.d/isc-dhcp-server"
|
||||
aller au "case \"$1\" in" et rajouter "sleep 5" avant le "if"
|
||||
|
@ -17,5 +17,5 @@
|
||||
#- name: copie du fichier de configuration depuis r-vp1
|
||||
# command: "sshpass -p 'root' scp -r root@192.168.99.112:/root/confwg/wg0-b.conf /etc/wireguard/"
|
||||
|
||||
- name: renommage du fichier de configuration
|
||||
command: "mv /etc/wireguard/wg0-b.conf /etc/wireguard/wg0.conf"
|
||||
#- name: renommage du fichier de configuration
|
||||
# command: "mv /etc/wireguard/wg0-b.conf /etc/wireguard/wg0.conf"
|
||||
|
@ -4,8 +4,8 @@
|
||||
|
||||
roles:
|
||||
- base
|
||||
- s-lb-web-ab
|
||||
- lb-web
|
||||
- snmp-agent
|
||||
- s-nas-client
|
||||
- lb-nfs-client
|
||||
- post
|
||||
|
||||
|
@ -4,8 +4,8 @@
|
||||
|
||||
roles:
|
||||
- base
|
||||
- s-lb-web-ab
|
||||
- lb-web
|
||||
- snmp-agent
|
||||
- s-nas-client
|
||||
- lb-nfs-client
|
||||
- post
|
||||
|
||||
|
@ -10,8 +10,8 @@
|
||||
roles:
|
||||
- base
|
||||
- snmp-agent
|
||||
- s-lb-wordpress
|
||||
- s-nas-server
|
||||
- lb-web
|
||||
- lb-nfs-server
|
||||
- ssh-cli
|
||||
- syslog-cli
|
||||
- post
|
||||
|
@ -97,11 +97,11 @@ elif [[ "${vm}" == "s-nxc" ]] ; then
|
||||
create_if "${vm}" "n-adm" "n-infra"
|
||||
elif [[ "${vm}" == "s-lb" ]] ; then
|
||||
create_if "${vm}" "n-adm" "n-dmz" "n-dmz-lb"
|
||||
elif [[ "${vm}" == "s-web1" ]] ; then
|
||||
elif [[ "${vm}" == "s-lb-web1" ]] ; then
|
||||
create_if "${vm}" "n-adm" "n-dmz-lb" "n-dmz-db"
|
||||
elif [[ "${vm}" == "s-web2" ]] ; then
|
||||
elif [[ "${vm}" == "s-lb-web2" ]] ; then
|
||||
create_if "${vm}" "n-adm" "n-dmz-lb" "n-dmz-db"
|
||||
elif [[ "${vm}" == "s-web3" ]] ; then
|
||||
elif [[ "${vm}" == "s-lb-web3" ]] ; then
|
||||
create_if "${vm}" "n-adm" "n-dmz-lb" "n-dmz-db"
|
||||
elif [[ "${vm}" == "s-lb-bd" ]] ; then
|
||||
create_if "${vm}" "n-adm" "n-dmz-db"
|
||||
|
@ -2,14 +2,14 @@ mkdir C:\gsb\partages
|
||||
|
||||
cd C:\gsb\partages
|
||||
|
||||
mkdir compta
|
||||
mkdir compta
|
||||
|
||||
mkdir ventes
|
||||
|
||||
mkdir public
|
||||
|
||||
mkdir commun
|
||||
|
||||
mkdir users
|
||||
|
||||
|
||||
|
||||
cd C:\gsb
|
||||
|
||||
mkdir users
|
3
windows/mkusr-backup.cmd
Normal file
3
windows/mkusr-backup.cmd
Normal file
@ -0,0 +1,3 @@
|
||||
net group gg-backup /ADD
|
||||
call mkusr uBackup "u-backup" gg-backup
|
||||
icacls "C:\gsb\partages\public" /Grant:r uBackup:M /T
|
@ -1,14 +1,22 @@
|
||||
#!/bin/bash
|
||||
|
||||
echo ping interface paserelle r-vp2
|
||||
ping -c3 172.16.128.254
|
||||
|
||||
echo ping r-vp1 interface n-linkv
|
||||
ping -c3 192.168.1.2
|
||||
|
||||
echo ping r-ext interface n-linkv
|
||||
ping -c3 192.168.1.1
|
||||
|
||||
echo ping r-ext interface n-link
|
||||
ping -c3 192.168.200.253
|
||||
|
||||
echo ping r-int interface n-link
|
||||
ping -c3 192.168.200.254
|
||||
|
||||
echo ping r-int interface s-infra
|
||||
ping -c3 172.16.0.254
|
||||
|
||||
echo ping s-infra
|
||||
ping -c3 172.16.0.1
|
||||
|
@ -1,14 +1,22 @@
|
||||
#!/bin/bash
|
||||
|
||||
echo ping s-infra
|
||||
ping -c3 172.16.0.1
|
||||
|
||||
echo ping r-int interface n-infra
|
||||
ping -c3 172.16.0.254
|
||||
|
||||
echo ping r-int interface n-link
|
||||
ping -c3 192.168.200.254
|
||||
|
||||
echo ping r-ext interface n-linkv
|
||||
ping -c3 192.168.1.1
|
||||
|
||||
echo ping r-vp1 interface n-linkv
|
||||
ping -c3 192.168.1.2
|
||||
|
||||
echo ping r-vp2 interface n-ag
|
||||
ping -c3 172.16.128.254
|
||||
|
||||
echo ping s-agence
|
||||
ping -c3 172.16.128.10
|
||||
|
@ -1,12 +1,19 @@
|
||||
#!/bin/bash
|
||||
|
||||
echo ping s-infra
|
||||
ping -c3 172.16.0.1
|
||||
|
||||
echo ping r-ext interface n-link
|
||||
ping -c3 192.168.200.253
|
||||
|
||||
echo ping r-ext interface n-linkv
|
||||
ping -c3 192.168.1.1
|
||||
|
||||
echo ping r-vp1 interface n-link
|
||||
ping -c3 192.168.1.2
|
||||
|
||||
echo ping r-vp2 interface n-ag
|
||||
ping -c3 172.16.128.254
|
||||
|
||||
echo ping s-agence
|
||||
ping -c3 172.16.128.10
|
||||
|
@ -1,14 +1,21 @@
|
||||
#!/bin/bash
|
||||
echo ping vers r-int
|
||||
ping -c3 172.16.0.254
|
||||
|
||||
echo ping r-int interface externe
|
||||
ping -c3 192.168.200.254
|
||||
|
||||
echo ping r-ext interface interne
|
||||
ping -c3 192.168.200.253
|
||||
|
||||
echo ping r-ext interface liaison
|
||||
ping -c3 192.168.1.1
|
||||
|
||||
echo ping r-vp1 interface liaison n-linkv
|
||||
ping -c3 192.168.1.2
|
||||
|
||||
ping -c3 172.16.125.254
|
||||
echo ping r-vp2 interface interface interne
|
||||
ping -c3 172.16.128.254
|
||||
|
||||
ping -c3 172.16.128.10
|
||||
echo ping s-agence
|
||||
ping -c3 172.16.128.11
|
||||
|
Reference in New Issue
Block a user