Os passos a seguir são avançados e só devem ser seguidos por usuário com amplo conhecimento no assunto.
*Não nos responsabilizamos por problemas causados pelo mal uso das dicas abaixo
*Não nos responsabilizamos por problemas causados pelo mal uso das dicas abaixo
Por quê e quando usar o modo de recuperação?
Certo dia acordei com um dos meus servidores offline. Urgentemente, entrei em contato com o Data Center e eles me informaram que todas as portas responsáveis pelo funcionamento do servidor estavam ativas.
Então pensei: preciso desinstalar o CSF, pois tenho certeza que ele está bloqueando as demais portas.
Foi aí que eu fui obrigado a colocar o servidor no modo de recuperação, visto que eu estava sem acesso ao WHM.
Pus o servidor em modo de recuperação e rodei o seguinte comando:
#mount /dev/sda3 /mnt
chroot /mnt/
chroot /mnt/
Porém, após rodar o comando, eu recebi a seguinte mensagem de erro:
Last Login: Thu Oct 8 13:33:01 2015 from xxx xxx xxx xx
root @ server: ~ # mount /dev/sda3 /mnt
mount: unknown filesystem type 'linux_raid_member'
root @ server: ~ #
root @ server: ~ # mount /dev/sda3 /mnt
mount: unknown filesystem type 'linux_raid_member'
root @ server: ~ #
O erro acima indica que eu devo começar a montagem pelo Software Raid.
Então, após várias pesquisas, eu encontrei essa dica aqui: https://mauricionh.wordpress.com/2013/05/08/montar-particao-com-soft-raid-linux/
Só que, como essa era minha primeira vez botando o servidor no modo de recuperação, então, por via de dúvidas, eu não segui o tutorial e acabei entrando em contato com o suporte do Data Center novamente e eles me recomendaram seguir os seguintes passos:
Alguns dos comandos abaixo irão abrir como se fosse o editor de texto, mas não há necessidade de fazer edição, apenas descarte e rode o comando: CTRL + C para sair do modo de edição e rodar o próximo comando.
Começando pelo Raid
# mdadm --assemble --scan
A resposta do comando será:mdadm: /dev/md/0 has been started with 2 drives.
mdadm: /dev/md/1 has been started with 2 drives.
mdadm: /dev/md/1 has been started with 2 drives.
Checando o Raid:
# cat /proc/mdstat
A resposta do comando será:Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md1 : active raid1 sda3[0] sdb3[1]
1951809344 blocks super 1.1 [2/2] [UU]
bitmap: 0/15 pages [0KB], 65536KB chunk
md0 : active raid1 sda1[0] sdb1[1]
524224 blocks super 1.0 [2/2] [UU]
md1 : active raid1 sda3[0] sdb3[1]
1951809344 blocks super 1.1 [2/2] [UU]
bitmap: 0/15 pages [0KB], 65536KB chunk
md0 : active raid1 sda1[0] sdb1[1]
524224 blocks super 1.0 [2/2] [UU]
Agora vamos montar as partições relacionadas
# mount /dev/md1 /mnt/
# mount /dev/md0 /mnt/boot/
# mount -o bind /dev /mnt/dev
# mount -o bind /proc/ /mnt/proc/
# mount -o bind /sys /mnt/sys
Alterar ambiente:
# chroot /mnt
Veja os seus arqivos:
# ls -la
Depois disso, eu desinstalei o CSF e dei STOP no Cphulk com o seguinte comando:
desinatalando o CSF + lfd
# cd /etc/csf
sh uninstall.sh
sh uninstall.sh
Desabilitando o cPHulk
# /usr/local/cpanel/etc/init/stopcphulkd