Project

General

Profile

Wiki » History » Version 1

Evolix Evolix, 11/16/2023 05:02 PM

1 1 Evolix Evolix
h1. Wikih2. Infos organisation
2
3
{{warning
4
|_.Décompte de temps|"oui":https://redmine-demo.evolix.org/projects/projet-2/wiki/DecompteTemps|
5
|_.Géré par Ansible|"partiellement":https://gitea.evolix.org/viaxoft/ansible|
6
|_.Stratégie déploiement|préprod dispo sur certains aspects|
7
}}
8
9
{{>toc}}
10
11
*Viaxoft* est un éditeur spécialisé dans le tourisme qui édite un CRM multicanal à destination des agences de voyages et tour opérateur (logiciel *Viaxeo* ).
12
*Viaxoft* a racheté *Sapeig* et *Taranis* ces dernières années, puis *Anaxys* . Viaxoft pratique le developpement agile.
13
14
h3. Contacts
15
16
* "Comment contacter Evolix ?":https://redmine-demo.evolix.org/projects/projet-2/wiki/Contacts_Evolix
17
* [[Contacts Viaxoft|Comment contacter Viaxoft ?]]
18
* -[[Contacts ISP Solutions|Comment contacter ISP Solutions ?]]-
19
* [[Contacts SafeHost|Comment contacter SafeHost ?]]
20
* [[Contacts Jaguar|Comment contacter Jaguar ?]]
21
* [[Contacts Oriented|Comment contacter Oriented ?]]
22
* [[Contacts_HP|Comment contacter le support HP ?]]
23
24
h3. Serveurs actuels 
25
26
{{tip
27
* "Evogestion / Mes machines":https://ssl.evolix.net/evogestion/evomachines/index.php?mod=mach&clientnumber=13VIAX0118
28
* [[InfogerancePaliers|Infogérance en paliers]]
29
}}
30
31
* Pour la liste a jour des serveurs monitorés, voir le lien *Evogestion* ci dessus.
32
* Pour les détails sur l'utilisation des machines, voir les pages par types de serveurs :
33
** [[Serveurs SQLs]] (*SQL* / *NFS* / *FTP*)
34
** [[Backup2|Serveurs Backups]] (*Evobackup* / *Backup FTP AS400*)
35
** [[Serveurs KVMs]] (*KVM* / *Haproxy*)
36
** [[Serveurs FW]] (*Firewall* / *VPN IPSEC* / *OpenVPN*)
37
** [[VmWare]] (*VMWare*)
38
** [[Cluster Ceph]] (*Ceph*)
39
** [[Serveur NFS]] (*NFS*)
40
** TODO :
41
*** [[Serveurs Tomcats]] (*Tomcat*)
42
*** [[Serveurs Routeurs]] (*Routeur*)
43
** Divers :
44
*** *viaxoft-mrs2-adm01* ("Munin":http://viaxoft-mrs2-adm01.evolix.net/ / "Cacti":https://viaxoft-mrs2-adm01.evolix.net/cacti/ / "Smokeping":https://viaxoft-mrs2-adm01.evolix.net/smokeping/smokeping.cgi / [[PKI]] / Elasticsearch (vote uniquement))
45
*** *viaxoft-mrs2-redmine00* ([[redmine|Redmine]])
46
*** *viaxoft-mrs-oracle00* : VM sur mrs-kvm00
47
*** *viaxoft-dedibox* : machine chez Dédibox avec application spécifique (Java/Tomcat et Oracle), uniquement pour de la préprod
48
*** *openbsd-test* (VM sur viaxoft-vmware) : serveur OpenBSD 5.2 pour tester les VPN IPSEC (pas de compte perso, root + 7*) ip sur la page 'adressageip'
49
*** *viaxoft-mrs-testipsec* (VM sur mrs-kvm00) qui remplace ^ et qui partage la même adresse IP publique
50
51
h3. Serveurs obsolètes
52
53
_à venir (d'ici début 2018) :
54
- viaxoft-mrs-sql00
55
- viaxoft-mrs-tomcat00_
56
57
arrêt infogérance oct. 2017
58
- viaxoft-mrs-tomcat01 : serveurs Java/Tomcat avec plusieurs instances (remplacé par adm01)
59
- viaxoft-mrs-adm00 : serveur d'admin (stats, sauvegardes, etc.) qui est une VM sur une machine VMware que nous ne maîtrisons pas
60
61
précédemment :
62
- viaxoft-mrs-fw00
63
- viaxoft-mrs-fw01
64
- viaxoft-mrs-fw02
65
- viaxoft-mrs-fw03
66
- viaxoft-mrs-fw04
67
- viaxoft-mrs-fw05
68
- viaxoft : serveur "historique", le plus ancien, avec des instances Java/Tomcat et MySQL. 
69
- viaxoft-oracle (VM sur viaxoft-vmware) : machine de production pour une application spécifique en Java/Tomcat et Oracle
70
- viaxoft-mrs-sql01
71
72
h3. Réunions
73
74
* Réunion technique : 15/04/2014 / Grégory Colpart voir [[CR15042014]]
75
* Réunion technique : 06/10/2014 / Grégory Colpart voir [[CR06092014]]
76
* Reunion : 20/01/2015 : [[CR20012015]]
77
* Réunion technique : 31/03/2015 / Grégory Colpart + Sébastien Dubois voir [[CR31032015]]
78
* Réunion téléphone : 25/02/2016 / Grégory Colpart + Tristan Pilat + Arnaud Tomeï voir [[CR25022016]]
79
* Réunion physique : 23/05/2016 / Grégory Colpart + Sébastien Dubois voir [[CR23052016]]
80
* Réunion physique : 06/10/2016 / Grégory Colpart + Jérémy Lecour voir [[CRoctobre2016]]
81
* Réunion physique : 29/11/2016 / Grégory Colpart + Jérémy Lecour voir [[CR-20161129]]
82
* Réunion physique : 08/02/2017 / Grégory Colpart + Jérémy Lecour voir [[CR-20170208]]
83
* Réunion physique : 28/03/2017 / Jérémy Lecour voir [[CR-20170328]]
84
* Point informel machine à café : 01/09/2017 / Jérémy Lecour + Sebastien Dubois [[CR-20170901]]
85
* Point téléphonique 03/10/2017 / GDJ + Sebastien Dubois [[CR-20171003]]
86
* Réunion physique : 30/11/2017 / Jérémy Lecour voir [[CR-20171130]]
87
* Réunion physique : 24/01/2018 [[CR-20180124]]
88
* Réunion physique : 22/03/2018 [[CR-20180322]]
89
* Réunion physique : 23/05/2018 [[CR-20180523]]
90
* Réunion physique : 05/07/2018 [[CR-20180705]]
91
* Points hebdos de juillet 2018 : [[CR-201807XX]]
92
* Réunion physique : 05/09/2018 [[CR-20180905]]
93
* Réunion physique : 14/11/2018 [[CR-20181114]]
94
* Réunion physique : 09/01/2019 [[CR-20190109]]
95
* Réunion physique : 14/03/2019 [[CR-20190314]]
96
* Réunion physique : 09/05/2019 [[CR-20190509]]
97
* Réunion physique : 03/07/2019 [[CR-20190703]]
98
* Réunion physique : 09/10/2019 [[CR-20191009]]
99
* Réunion physique : 07/11/2019 [[CR-20191107]] (spéciale déménagement datacenter)
100
* Réunion physique : 17/12/2019 [[CR-20191217]]
101
* Réunion physique : 12/02/2020 [[CR-20200212]]
102
* Réunion téléphonique : 22/04/2020 [[CR-20200422]]
103
* Réunion physique : 08/07/2020 [[CR-20200708]]
104
* Réunion en visio : 01/10/2020 [[CR-20201001]]
105
* Réunion en visio : 07/01/2021 [[CR-20210107]]
106
* Réunion "contrat" en visio : 11/02/2021 [[CR-20210211]]
107
* Réunion en visio : 07/04/2021 [[CR-20210407]]
108
* Réunion en visio : 30/06/2021 [[CR-20210630]]
109
* Réunion au bureau Evolix : 22/09/2021 [[CR-20210922]]
110
* Réunion en visio : 08/12/2021 [[CR-20211208]]
111
* Réunion en visio : 23/02/2022 [[CR-20220223]]
112
* Réunion en visio : 27/04/2022 [[CR-20220427]]
113
* Réunion au bureau Evolix : 21/07/2022 [[CR-20220721]]
114
* Réunion en visio : 12/10/2022 [[CR-20221012]]
115
* Réunion en visio : 10/01/2023 [[CR-20230110]]
116
* Réunion en visio : 19/04/2023 [[CR-20230419]]
117
* Réunion en visio : 14/06/2023 [[CR-20230614]]
118
119
h2. Infos infrastructure réseau 
120
121
[[Schéma infrastructure|Schema Réseau Infra]]
122
Pfstat :
123
- http://viaxoft-mrs-fw06.evolix.net/pfstat/
124
- http://viaxoft-mrs-fw07.evolix.net/pfstat/
125
126
h3. Adresses IP externe
127
128
Voir page du wiki : [[Pare-feu]]
129
130
h3. Marseille
131
132
* [[Acces-DataCenter|Accès aux DataCenter]]
133
134
h4. Viaxoft MRS - DataCenter Interxion MRS2 - Dénomination Jaguar MAR03
135
136
Gestion de l'hébergement dans 2 baies au datacenter de Marseille Interxion MRS2 - 6 bassin Léon Gourret - Porte 4 - 13005 Marseille
137
Bande passante : Contrat avec Jaguar de 50 Mb/s dédié (avec un burst possible à 100 Mb/s). Les firewalls d'entrée sont gérés par Evolix.
138
139
* [[Adressage_IP|Adressage IP]]
140
* [[ITX2-Switch|Switch]]
141
* [[ITX2-APC|APC]]
142
* [[ITX2-Baies|Plan des baies]]
143
* [[ILO|Configuration ILO]]
144
145
h4. Viaxoft MRS2 - Datacenter Jaguar - Dénomination Jaguar MAR02
146
147
Gestion de l'hébergement dans 2 baies au datacenter de JAGUAR
148
149
* [[Adressage_IP#Réseau-MRS02|Adressage IP]]
150
* [[JN-Switch|Switch]]
151
* [[JN-APC|APC]]
152
* [[JN-Baies|Plan des baies]]
153
* [[ILO|Configuration ILO]]
154
155
h3. Lausanne
156
157
h4. QLS2 - SafeHost
158
159
* [[QLS2-Adressage|Adressage IP]]
160
* [[QLS2-Infos|Infos diverses]]
161
* [[QLS2-Switch|Switch]]
162
* [[QLS2-APC|APC]]
163
* [[QLS2-Plan Baie|Plan Baie]]
164
165
Gestion de l'hébergement d'1/4 de baie chez SafeHost.
166
167
Les firewalls d'entrée sont gérés par Evolix et ont un /29 propre pour le routage.
168
169
h2. Infos techniques
170
171
[[VPN IPSEC]]
172
[[VPN Suisse]]
173
[[WiFi]]
174
[[Adressage IP]]
175
[[Routage]]
176
[[Firewall]]
177
[[Backup]]
178
[[URLs]]
179
[[CUPS]]
180
[[InstancesTomcat| Numérotation instances Tomcat]]
181
[[Instances_Tomcat_(Ansible)| Howto Instance Tomcat]]
182
[[Admin_Tomcat_Systemd|Administration Tomcat (Systemd)]]
183
[[vmWare]]
184
[[Pare-feu|Configuration des pare-feu]]
185
[[qls-tomcat-td]]
186
[[qls-sql00-backup]]
187
[[Appli de gestion de sinistres]]
188
[[TomcatSessionsRedis|Sessions Tomcat dans Redis (beta)]]
189
[[SSLAuth|Authentification SSL/TLS par domaine]]
190
[[viaxoft-users|Gestions des utilisateurs Viaxoft]]
191
[[Redmine|Redmine]]
192
[[Proxy]]
193
[[Serveurs_KVMs#Load-Balancing|Load-balancing avec HAProxy]]
194
[[CheckListsInstallation]]
195
[[Mise en place instance SQL]]
196
197
h2. Procédures
198
199
* [[Procedures#Certificats-SSLTLS-sur-HAProxy|Certificats SSL/TLS sur HAProxy]]
200
* [[Procedures#Certificats-SSLTLS-sur-Tomcat|Certificats SSL/TLS sur Tomcat]]
201
* [[Procedures#Installation-dun-serveur|Installation d'un serveur]]
202
* [[Procedures#Cr%C3%A9ation-de-volumes-logiques-RAID|Création de volumes logiques RAID]]
203
* [[Procedures#Configuration-BIOS|Configuration BIOS]]
204
* [[Procedures#Configuration-iLO|Configuration iLO]]
205
* [[Procedures#Ajout-dinstances-MySQL|Ajout d'instances MySQL]]
206
207
Bien penser 
208
209
h2. Maintenance
210
211
h3. SSH sur les serveurs d'administration
212
213
La connexion SSH peut se faire vers les routeurs/fws/adm01 depuis n'importe quelle machine Viaxoft ainsi que depuis les IP privilégiées Evolix avec MDP, sur ces IPs :
214
<pre>
215
viaxoft-mrs2-routeur00  185.74.98.29
216
viaxoft-mrs2-routeur02  185.74.98.28
217
viaxoft-mrs2-fw00       185.74.98.2
218
viaxoft-mrs2-fw01       185.74.98.3
219
viaxoft-mrs-fw06        185.74.98.12
220
viaxoft-mrs-fw07        185.74.98.11
221
viaxoft-mrs2-adm02      10.11.24.211
222
</pre>
223
224
h3. dedibox
225
226
h4. viaxoft-mrs2-redmine00!mem
227
228
- Si l'alerte est présent l'après midi, alors on veille à ce que le service fonctionne toujours et sera relancé automatiquement après 21h grâce à une tâche cron.
229
- Si l'alerte est présente le matin, alors entre midi et deux :
230
231
<pre>
232
sudo -iu redmine
233
systemctl --user restart puma
234
</pre>
235
236
<pre>
237
sudo -iu easyredmine2
238
systemctl --user restart puma
239
</pre>
240
241
h4. Oracle - a.k.a. demon1 (mrs-oracle00)
242
243
Le service est lancer via une unité systemd, à priori OracleDB est installé dans /opt/oracle
244
245
Les commandes pour le démarré / redémarré / arrêter sont :
246
247
<pre>
248
# systemctl status oracle
249
# systemctl restart oracle
250
# systemctl stop oracle
251
# systemctl start oracle
252
</pre>
253
254
Pour se connecter au shell SQL on peut le faire comme ceci :
255
256
<pre>
257
root@mrs-oracle00:~# sqlplus /nolog
258
CONNECT username/password
259
</pre>
260
261
A priori nous n'avons pas les accès à un utilisateur SQL, nous faisons seulement du support niveau 1 sur ce service.
262
263
h3. kvm / drbd
264
265
{{warning
266
Attention a la migration a chaud des tomcats entre hyperviseur, la VM migre, répond au ping mais rien d'autre ne fonctionne (cf. http://bugs.evolix.org/25163) !
267
}}
268
269
Le liens DRBD entre 2 KVM pairs utilise le réseau @192.168.42.0/24@.
270
271
h3. sql00
272
273
Lors d'une demande de viaxoft du style "Dépose export XXXXX sur ftp XXXXX", ils faut rajouter une ligne dans le script /usr/share/scripts/zip-xml.sh.
274
275
h3. sqlxx mount
276
277
Pour mount(1) viaxoft-sqlxx sur viaxoft-yyxx
278
279
1. Ajouter entrée pour viaxoft-sqlxx:/srv/data/yy dans exports(5)
280
<pre>
281
viaxoft-sqlxx:# vi /etc/exports
282
+ /srv/data/yy xx.xx.xx.xx(rw,sync,insecure,no_subtree_check)
283
284
viaxoft-sqlxx:# exportfs -a
285
</pre>
286
287
2. Ajouter entrée a fstab(5)
288
<pre>
289
viaxoft-yyxx:# vi /etc/fstab
290
+ xx.xx.xx.xx:/srv/data/yy /srv/data/yy nfs rw,bg,hard,rsize=32768,wsize=32768,vers=3,nointr,timeo=600,proto=tcp 0 0
291
292
viaxoft-yyxx:# mount xx.xx.xx.xx:/srv/data/yy /srv/data/yy
293
</pre>
294
295
h3. tomcat*
296
297
Tous les -tomcat* ont un script qui vérifie l'espace disque de "/srv", envoie une alerte si occupation >= 95% avec récapitulatif 'du' sur /srv/tomcat/* à l'adresse email : techlog@viaxoft.com
298
299
h3. tomcat00
300
301
En cas d'alertes mail _[CUPS] "AuthInfoRequired username,password" trouve sur tomcat00_
302
303
Il faut éditer /etc/cups/printers.conf et rechercher la ligne "AuthInfoRequired username,password"
304
que l'on remplacera par "AuthInfoRequired none"
305
306
Puis on redémarre CUPS : sudo /etc/init.d/cups restart
307
308
h3. Alerte tomcat-ajp13-instance sur mrs-oracle00
309
310
Rejouer le check nagios /usr/lib/nagios/plugins/check_tomcat_ajp_instance.sh et repérer les instances ne répondant plus grâce aux ports manquants (se référer au tableau des [[InstancesTomcat| instances Tomcat]])
311
312
Si la ou les instances concernées sont encore en train de tourner ( ps auwx|grep <nominstance> ), tenter un shutdown propre via l'utilisateur de l'instance
313
314
Ceci peut être dû au fait que le script dans init.d démarre les tomcats en tant que root, il devrait les partir avec leurs usagers respectifs.
315
316
<pre>
317
sudo -iu $NOMINSTANCE -- /srv/tomcat/$NOMINSTANCE/bin/shutdown.sh
318
</pre>
319
320
Si cela ne suffit pas, killer le processus java.
321
322
Redémarrer les instances 
323
324
<pre>
325
sudo -iu $NOMINSTANCE -- /srv/tomcat/$NOMINSTANCE/bin/startup.sh
326
</pre>
327
328
Attendre un peu que l'instance s'initialise et rejouer le check nagios
329
330
L'alerte tomcat-ajp13-instance est suivi d'une alerte tomcat-http-instance, après la maintenance rejouer aussi /usr/lib/nagios/plugins/check_tomcat_http_instance.sh.
331
332
h3. tomcat04
333
334
Tous les dimanches, un OPTIMIZE est lancé sur MySQL (car oui, il y a un MySQL sur ce serveur), qui fait prendre ~ +15% de disque à /srv pendant 30 minutes.
335
Un ménage doit donc être fait par Viaxoft pour ne jamais atteindre 80%... si alerte, relancer Viaxoft sur l'email check_free_disk
336
337
h3. tomcat07
338
339
Ce serveur a 2 route supplémentaires, demandé dans le ticket #67701
340
- @ip route add 82.150.240.201 via 10.11.24.251@
341
- @ip route add 194.156.171.137 via 10.11.24.251@
342
343
h3. Alerte VPN sur qls-fw0x
344
345
On peut forcer la renegotiation sur les qls-fw0x avec la commande suivante (par exemple pour le vpn Delta) :
346
<pre>echo "c peer-deltavoyages" >/var/run/isakmpd.fifo</pre>
347
348
h3. mrs-oracle00 / tomcat06
349
350
Si Soffice ne se lance pas au démarrage ou plante, examiner l'état du _screen_ ...ou lancer dans un _screen_ :
351
352
<pre>
353
while sleep 10; do /usr/lib/libreoffice/program/soffice.bin --headless --accept="socket,host=localhost,port=8100;urp;"; done
354
</pre>
355
356
h3. Switchs
357
358
[[Switch|Procédure de secours pour les switchs]]
359
360
h3. Problème VPN IPSEC
361
362
[[Diagnostic|Diagnostic souci VPN IPsec]]
363
364
h3. Réseau Windows
365
366
Le réseau Windows est 10.11.20.0/24 (local) et l'on a réservé la plage d'IPs publiques 85.31.204.176/28 (interface "bge1" sur fw06/fw07).
367
Si demande de Viaxoft pour avoir une IP dédiée pour un serveur Windows, on réalise un mapping "binat" dans les pf.conf des firewalls :
368
<pre>
369
match on {$ext_if $ext2_if $viaxoft_if} from 10.11.20.XXX binat-to 85.31.204.1YY
370
</pre>
371
372
h3. Redémarrage tous les soirs
373
374
Entre 21h00 et 21h15, plusieurs instances Tomcat sont redémarrées sur les serveurs oracle00 et tomcat06,
375
les alertes sont donc à ignorer (détails sur <CA+vXRVhqBVbVCDJ+Xj=ZTrM7JhUg1cqA5064qw_c-z_TQwPbVg@mail.gmail.com>)
376
377
378
h4. Générer un nouveau certificat Let's Encrypt
379
380
<pre>
381
# certbot certonly --webroot --webroot-path /var/lib/letsencrypt/ -d test-lb.viaxoft.net --post-hook /usr/share/scripts/ssl-haproxy-hook.sh
382
</pre>
383
384
Le script est exécuté chaque semaine en plus de l'exécution par Let's Encrypt.
385
386
h3. ocspd
387
388
Un démon ocspd tourne sur viaxoft-mrs2-adm01, il permet au serveurs Tomcat de vérifier la validité des certificats SSL clients, il est donc très critique.
389
390
Pour le redémarrer :
391
392
<pre>
393
systemctl restart ocspd
394
</pre>
395
396
h3. pf_states
397
398
Voir [[evolix-intra:HowtoMonitoring#pf_states|HowtoMonitoring#pf_states]]
399
400
h3. Bascule SQL sur viaxoft-qls
401
402
Si un incident se produit sur viaxoft-qls-sql00, on peut basculer sur viaxoft-qls-sql00-backup via un Haproxy local sur viaxoft-qls-tomcat00.
403
404
1) Mettre sql00 en status MAINT (Set State to MAINT)
405
406
<pre>
407
http://viaxoft-qls-tomcat00.evolix.net:8080/
408
</pre>
409
410
2) Activer sql00-backup via mysqlcheck sur sql00-backup
411
412
<pre>
413
sed -i 's/^return="404 Not Found"/#\0/' /root/mysqlchk
414
</pre>
415
416
Le trafic Mysql ira vers sql00-backup tant que :
417
* *sql00* restera en status *MAINT* (attention status perdu au reload de Haproxy)
418
* Mysql sur *sql00* ne sera pas OK
419
420
Si l'on veut etre sur que *sql00* ne repasse pas en status actif dans Haproxy, on peut changer son mysqlcheck :
421
422
<pre>
423
sed -i 's/^#return="404 Not Found"/\0/' /root/mysqlchk
424
</pre>
425
426
h3. jvm
427
428
Le client peut demander d'ajouter un certificat dans la JVM #43136 Il faudra alors suivre cette documentation : https://wiki.evolix.org/HowtoJava#importer-un-certificat-racine
429
430
h3. Mail : [alert] Interface carp4 HS
431
432
Si on reçoit ce mail (script exécuté toutes les minutes sur le firewall), c'est qu'il y a un problème avec le réseau Windows 10.11.20.0/24 sur le firewall. Ça peut arriver suite à ajout de nouveaux réseaux VPN, avec un le client qui annonce 0.0.0.0/0 au lieu d'un réseau spécifique, et cassant le réseau.
433
434
Visible avec :
435
<pre>
436
# ipsecctl -sa | grep -F 0.0.0.0
437
flow esp in from 0.0.0.0/0 to 10.11.20.0/24 peer 193.58.247.50 srcid 85.31.195.22/32 dstid 193.58.247.50/32 type require
438
flow esp out from 10.11.20.0/24 to 0.0.0.0/0 peer 193.58.247.50 srcid 85.31.195.22/32 dstid 193.58.247.50/32 type require
439
</pre>
440
441
Il faut dans ce cas désactiver les derniers réseaux rajoutés concernant le VPN en question dans /etc/isakmpd/isakmpd.conf et rapidement en informer Viaxoft
442
443
h3. VM qls2-fw02 de secours sur qls-kvm00
444
445
Voir la page [[QLS2-fw02]]
446
447
h3. _Warning_ Ceph @mon is allowing insecure global_id reclaim@
448
449
La commande suivante a été jouée sur @viaxoft-mrs2-ceph00@ pour ignorer le _warning_ le temps que les clients comme @viaxoft-mrs2-kvm09@ soient mis à jour :
450
451
<pre><code class="shell">
452
ceph config set mon mon_warn_on_insecure_global_id_reclaim false
453
ceph config set mon mon_warn_on_insecure_global_id_reclaim_allowed false
454
</code></pre>
455
456
{{note
457
La fonctionnalité a été désactivée à la mi-juillet 2021. Ça a provoqué un incident le 11 août 2021. Le warning est donc ignoré le temps que tous les clients Ceph monte de version.
458
}}
459
460
Puis dans le fichier @/etc/ceph/ceph.conf@ :
461
462
<pre>
463
[mon]
464
mon_warn_on_insecure_global_id_reclaim = false
465
mon_warn_on_insecure_global_id_reclaim_allowed = false
466
</pre>
467
468
h3. Alerte mémoire sur serveurs Tomcat
469
470
Étant donne qu'il a beaucoup d'alerte mémoire sur ces serveurs, le client a programmé un _reboot_ entre 8 h et 8 h 20, voir "ticket #64495":https://ssl.evolix.net/evogestion/evotickets/index.php?mod=tck&id=64495#m_495393
471
472
Les serveurs concernés sont :
473
474
<pre>
475
viaxoft-mrs2-tomcat08
476
viaxoft-mrs-tomcat09
477
viaxoft-mrs-tomcat10
478
viaxoft-qls-tomcat00
479
</pre>
480
481
h3. OpenVPN
482
483
Suite au ticket #64149, il y a 2 instances OpenVPN sur les firewalls mrs-fw0* et mrs2-fw0*.
484
La seconde instance utilise une configuration différente de la première (qui ne fonctionne plus sous macOS), et a pour but de la remplacer à terme, le temps que les utilisateurs migrent petit à petit sur la nouvelle instance.
485
486
La première instance se trouve dans @/etc/openvpn/@, et la seconde dans @/etc/openvpn2/@. Chacune a sa propre configuration pour les logs, NRPE, et l'autorisation de connexion.
487
Par contre, les 2 instances utilisent la même configuration pour les certificats : tout est géré dans @/etc/openvpn/ssl/@ à la fois pour la première et la seconde instance OpenVPN. Ainsi, les clients peuvent se connecter sur n'importe quelle instance en changeant simplement le port et le dev (@1194@ et @dev tap@ pour la première, @1196@ et @dev tun@ pour la seconde) et en gardant les mêmes certificats.
488
489
Si on veut gérer une instance en particulier :
490
491
<pre>
492
# rcctl (check|start|stop|restart) openvpn    # => Première instance
493
# rcctl (check|start|stop|restart) openvpn2   # => Seconde instance
494
</pre>
495
496
497
h3. Archivage et backup des données clients Viaxeo
498
499
[[Backup2#Archives-Viaxeo-client|Backup]]
500
501
h2. SSL/TLS
502
503
Les certificats @viaxeo.com@ et @*.viaxeo.com@ (wildcard) sont déployés sur les HAProxy (depuis @viaxoft-mrs2-adm01@) et sur les Tomcat (avec Ansible).
504
Pour les mettre à jour il faut suivre la [[Procedures#Certificats-SSLTLS-sur-HAProxy|procédure pour HAProxy]] et la [[Procedures#Certificats-SSLTLS-sur-les-Tomcat|procédure pour Tomcat]].
505
506
Des certificats Let's Encrypt sont gérés depuis @viaxoft-mrs2-adm01@ et également déployés sur les HAProxy.
507
Pour en ajouter/modifier/supprimer, il faut suivre la [[Procedures#Certificats-SSLTLS-sur-HAProxy|procédure pour HAProxy]].
508
509
h2. PRA
510
511
* En cas de soucis sur un des KVM qui font aussi [[Serveurs_KVMs#Load-Balancing|Load Balancing]] (kvm01 a kvm04).
512
513
h2. Serveur de PRA pour les serveurs SQL
514
515
Un serveur de PRA est dédié pour les serveurs SQL, viaxoft-mrs2-sql-pra.
516
Il sert a remonté une ou des instances MySQL ainsi que le serveur FTP du serveur SQL que l'on souhaite remonter.
517
518
h3. Remonter une ou des instances MySQL
519
520
Un procédure détailler, par serveur SQL que l'on souhaite remonter, est détaillé dans /etc/mysql-sql0*/README.md
521
522
Il suffit de jouer une par une les étapes pour remonter l'instance ou les instances MySQL, pour la configuration, on fait un lien symbolique de la configuration du serveur SQL souhaité dans _/etc/mysql_.
523
524
h3. Remonter le serveur Proftpd
525
526
Pour remonter le serveur Proftpd du serveur SQL souhaité, il suffit de jouer le script _/usr/share/scripts/ftp.sh_ comme ceci :
527
528
<pre>
529
/usr/share/scripts/ftp.sh sql0*
530
</pre>
531
532
Il va copier la configuration du serveur Proftpd que l'on souhaite remonter, créer les différents dossiers des comptes FTP dans /srv/data, et redémarrer Proftpd.
533
534
h2. Sauvegarde
535
536
cf. [[Backup2]]