← Recursos Continuidade · Análise 19 de Abril de 2026 6 min de leitura
Continuidade quando a corrente vai — lições de um apagão.
A 28 de Abril de 2025, Portugal, Espanha e sul de França ficaram sem corrente. A maioria das PMEs parou. Algumas não. A diferença quase sempre estava em decisões técnicas tomadas 12, 18 ou 24 meses antes — nada que pudesse ser comprado no dia.
Na tarde de 28 de Abril de 2025, a rede elétrica ibérica falhou em cascata. O apagão cobriu Portugal continental, Espanha e o sul de França; durou entre 4 e 12 horas conforme a zona. Ao longo dessas horas, terminais de pagamento desapareceram, comboios pararam, semáforos apagaram, e a maioria das PMEs descobriu, em tempo real, o custo da concentração de infraestrutura.
O que é interessante não é a falha — grandes falhas de rede acontecem. É a distribuição da resposta. Em entrevistas feitas nas semanas seguintes, algumas empresas operaram sem pausa visível; outras perderam dias de produção. Nenhuma dessas diferenças se explicava pelo azar. Todas se explicavam por escolhas anteriores.
Quem não parou
Entre os casos que tornámos públicos (com autorização dos clientes), dois ajudam a ilustrar o padrão.
Um grupo hoteleiro em Lisboa manteve operação quase integral. O PMS (sistema de gestão hoteleira) estava em cloud Microsoft Azure — o datacenter de Azure West Europe não foi afetado pela falha ibérica. O check-in continuou porque os portáteis da receção têm bateria e o Wi-Fi interno estava em UPS. Os pagamentos fizeram-se em multibanco portátil com conexão 4G redundante. Faltou a luz do lobby, mas não faltou a operação.
Um laboratório de análise na região norte também manteve serviço a clientes internos: o Cegid estava em cloud, o LIMS (sistema laboratorial) em SaaS, os geradores de emergência arrancaram como deviam para os frigoríficos. Perderam acesso a e-mail durante 20 minutos até o failover ativar. Em termos de negócio, o impacto foi desprezível.
Quem parou
Do outro lado, os padrões:
- Seguradora de média dimensão com infraestrutura local — todos os sistemas em servidores no próprio edifício, sem backup em cloud. Ao arrancar a corrente, a base de dados estava corrompida por reinício abrupto. Três dias de recuperação, acesso ao portal do cliente indisponível durante toda a semana.
- Empresa de turismo que tinha cloud — mas contratada via operador de telecomunicações local cujo datacenter foi afetado pela falha. Cloud também concentra risco se o datacenter estiver na zona de impacto.
- Retalhista com ERP em servidor no escritório, com 16 anos de idade. O servidor não voltou a arrancar quando a luz voltou. Catalisou a migração para cloud, mas custou duas semanas de faturação manual em papel.
Sete pontos técnicos que separam os dois grupos
Não é uma lista de nice-to-haves. É a lista do que os clientes que mantiveram operação tinham, e os que pararam não. Por ordem de impacto:
- Sistemas de gestão em cloud, não em servidor local. O ERP, o PMS, o LIMS, o CRM — a camada de negócio tem de viver em Azure, AWS, ou SaaS equivalente. Servidor no escritório é ponto único de falha. Custo típico de migração Cegid para Azure numa PME: €15 000–€40 000. Pago uma única vez.
- Backup também fora da zona de impacto. Cloud próprio é mitigação — mas se o cloud fica em datacenter na mesma região, a mitigação é parcial. Configurar replicação geo-redundante: Azure paired region (West Europe → North Europe, por exemplo).
- UPS nos pontos críticos + gerador se os processos justificam. Para PME genérica, UPS nos switches, servidor de e-mail local (se ainda existe), recepção, mantém operação por 1–4 horas. Para processos sensíveis (frio, saúde, produção contínua), gerador. Custo: UPS decente para PME média €800–€2500; gerador pequeno €5000–€15000.
- Conectividade redundante. Fibra principal + 4G/5G de fallback automático. Os portáteis e os POS continuam a trabalhar mesmo quando o ISP principal cai. Custo: €30–€80/mês extra no contrato de telecomunicações empresarial.
- Monitorização e alertas ativos. Se a equipa IT descobre o problema porque um colaborador liga a dizer que não consegue trabalhar, a continuidade já começou atrasada. Alertas automáticos (Defender, Azure Monitor) a caixas de e-mail e SMS monitorizadas.
- Plano de comunicação durante falha. Quando o e-mail não funciona, por onde se comunica internamente? Grupo de WhatsApp com gestão direta. Cascata de telefonemas. Alguém responsável por atualizar clientes a cada hora. Sem isto, a empresa parou mesmo que o software funcione.
- Teste anual da continuidade. Uma vez por ano, simular falha — desligar o ISP principal numa manhã qualquer, ver o que falha. Metade das PMEs descobre assim que o UPS que comprou há dois anos tem baterias mortas.
O erro recorrente em PMEs
A tentação, depois de um apagão, é comprar resposta reativa — mais UPS, mais gerador, mais backup. É útil mas insuficiente. O erro estrutural em PME é ter a camada aplicacional (ERP, e-mail, ficheiros partilhados) em infraestrutura local sem razão. Os sete pontos acima pressupõem que a maior parte do software que a empresa usa já vive fora do escritório.
Se o Cegid ainda está em servidor local, a decisão mais relevante que se pode tomar depois de um apagão é a migração para cloud. As outras seis entram em cena depois — sem a primeira, são todas paliativas.
Como se compara com a realidade normal
Um apagão ibérico é um evento raro. Mas a curva de distribuição de falhas que afetam uma PME não é uniforme. As seguintes são muito mais frequentes e beneficiam exatamente das mesmas decisões:
- Falha do ISP — corta fibra na rua. 2 a 48 horas.
- Falha do servidor local — disco morre sem backup recente.
- Ransomware — encripta tudo o que está na rede, backup local incluído se mal configurado.
- Incêndio ou inundação no escritório — destrói tudo o que está lá dentro.
Cada um destes cenários tem mitigações sobrepostas com os sete pontos acima. Por isso o investimento em continuidade nunca é específico a um tipo de ameaça — é genérico, porque as mitigações se repetem.
A seguir
Se nunca fez um exercício de continuidade, é provável que haja pelo menos um dos sete pontos acima em lacuna. Um diagnóstico de 30 minutos cobre o levantamento do estado actual, identifica as lacunas prioritárias, e entrega a lista de ações com prazos. Ver também o serviço Azure para a base técnica de muitas destas mitigações.
Fontes consultadas: Entrevistas próprias a clientes HeraPrime no período pós-apagão de 28 de Abril de 2025 · Comunicações da REN e Red Eléctrica de España sobre a cronologia do evento · Documentação técnica Microsoft Azure sobre paired regions e geo-redundancy.
