O Que Desastres Industriais Revelam Sobre Nossos Piores Pontos Cegos: 4 Lições Surpreendentes

Introdução: O Mito do Acidente Único

Grandes desastres industriais, como a explosão em uma refinaria ou a falha catastrófica em uma planta química, nos chocam. Tendemos a vê-los como eventos singulares e imprevisíveis, relâmpagos em um céu azul. Acreditamos que cada catástrofe é um caso isolado, uma combinação única e infeliz de circunstâncias que dificilmente se repetirá.

No entanto, uma análise mais profunda revela uma verdade contraintuitiva e alarmante: essas catástrofes não são únicas. Elas seguem padrões previsíveis, repetindo falhas sistêmicas e culturais que já foram vistas antes, às vezes décadas atrás. Esses incidentes não são meras falhas técnicas; são propriedades emergentes de sistemas sociotécnicos complexos, onde cultura, design e pressões de produção interagem de maneiras que tornam a catástrofe quase inevitável. Este artigo explora quatro lições surpreendentes que esses padrões nos ensinam sobre a verdadeira natureza do risco.

——————————————————————————–

1. A Surpreendente Monotonia dos Desastres

Incidentes industriais graves raramente são eventos inéditos. Na maioria das vezes, são repetições quase idênticas de falhas passadas, separadas apenas pelo tempo e pela geografia. Essa tendência é perfeitamente ilustrada por uma série de acidentes de “trabalho a quente”. Em 2011, na refinaria de Delaware City, faíscas de solda inflamaram vapores que escapavam de um tanque de ácido sulfúrico, matando um soldador. Dezesseis anos antes, em 1995, uma tragédia “estranhamente semelhante” na refinaria de Rouseville matou cinco trabalhadores quando faíscas de solda entraram em contato com vapores inflamáveis de um tanque. E em 2010, na unidade da DuPont em Buffalo, um soldador foi morto instantaneamente quando a sua ferramenta inflamou vapores dentro do tanque que ele consertava. Três locais, três décadas, o mesmo erro fundamental.

O Dr. Tony Barrell, ex-executivo-chefe de segurança do Mar do Norte, capturou essa repetitividade de forma contundente:

“Na verdade, existe uma mesmice terrível nesses incidentes. Eles são quase sempre caracterizados pela falta de previsão e análise, e quase sempre o problema se resume à má gestão.”

Ele elabora, deslocando o foco do indivíduo para o sistema:

“Não se trata apenas de uma pessoa em particular que não seguiu um procedimento ou fez algo errado. Você sempre volta ao fato de que as coisas são desleixadas, mal organizadas e não sistemáticas, desde o topo da empresa até a base.”

Essa terrível repetitividade nos força a perguntar: se os erros são os mesmos, por que não os vemos? Muitas vezes, a resposta está em uma perigosa ilusão de segurança, onde olhamos para os dados errados.

——————————————————————————–

2. A Ilusão da Segurança: Quando Boas Métricas Escondem Riscos Mortais

Uma das lições mais paradoxais dos desastres industriais é que uma organização pode parecer segura no papel, momentos antes de uma catástrofe. Isso ocorre quando as métricas de segurança focam nos perigos errados, criando uma perigosa ilusão de controle. Focar em taxas baixas de acidentes pessoais — como escorregões, tropeções e quedas — pode mascarar riscos de processo catastróficos que estão se acumulando silenciosamente.

O desastre da refinaria da BP em Texas City em 2005, que matou 15 trabalhadores e feriu mais de 180, é o principal estudo de caso. A investigação do Chemical Safety Board (CSB) dos EUA revelou que toda a estrutura de segurança da empresa — “campanhas de segurança, metas e recompensas” — estava focada em melhorar métricas de segurança pessoal em vez de sistemas de segurança de processos.

Enquanto a empresa celebrava metas de segurança pessoal, os sistemas críticos de segurança de processo se deterioravam. A gestão “se consolou com as baixas taxas de acidentes pessoais” enquanto os riscos de uma explosão massiva cresciam, ignorando um fato devastador: 23 trabalhadores já haviam sido mortos em acidentes na refinaria ao longo de 30 anos, sem contar os 15 que morreram naquele dia. Esse foco equivocado em indicadores de baixa consequência criou uma falsa sensação de segurança, permitindo que as condições para o desastre se desenvolvessem sem controle.

——————————————————————————–

3. “Erro Humano” Quase Sempre é a Resposta Errada

Após um acidente, a explicação mais fácil e comum é culpar o “erro humano”. No entanto, essa é uma análise superficial que impede o aprendizado real. Os erros dos operadores raramente são a causa raiz; eles são, na maioria das vezes, o sintoma de um sistema mal projetado, procedimentos inadequados ou pressões de produção conflitantes.

O incidente de 2004 na Formosa Plastics em Illinois, que resultou em cinco mortes, é um exemplo claro. A explosão foi desencadeada quando um operador, encarregado de limpar o reator D306, foi por engano para o reator D310 — que estava em operação e pressurizado. Ele então conseguiu anular um bloqueio de segurança e abriu a válvula de drenagem. A investigação revelou que os reatores eram quase idênticos em aparência, tornando a confusão provável, e que as salvaguardas podiam ser facilmente contornadas.

O mais alarmante, no entanto, foi a falha da organização em aprender com seus próprios erros. A investigação do CSB revelou que incidentes quase idênticos já haviam ocorrido em outras instalações da Formosa. Em sua unidade de Baton Rouge, um operador também foi para o reator errado. Pior ainda, um vazamento de cloreto de vinila já havia ocorrido na mesma planta de Illiopolis apenas alguns meses antes da explosão fatal, e as recomendações daquela investigação não haviam sido implementadas. O “erro humano” não foi um ato isolado, mas o resultado inevitável de um processo de aprendizagem organizacional profundamente falho. A especialista em segurança de sistemas, Nancy Leveson, resume essa ideia:

“O pensamento sistêmico considera o erro humano um sintoma, não uma causa. […] De fato, pode-se afirmar que o erro humano é um sintoma de um sistema que precisa ser redesenhado. No entanto, em vez de mudar o sistema, tentamos mudar as pessoas – uma abordagem fadada ao fracasso.”

——————————————————————————–

4. A Normalização do Perigo: Como o Inaceitável se Torna Rotina

Talvez o ponto cego mais perigoso de todos seja a “normalização do desvio” — um fenômeno cultural em que condições perigosas e práticas arriscadas se tornam gradualmente aceitas como “normais” ao longo do tempo. Pequenos desvios dos procedimentos e condições anormais, quando não corrigidos, tornam-se a nova linha de base.

O incidente fatal na refinaria Tesoro em Anacortes, Washington, em 2010, que matou sete trabalhadores, ilustra tragicamente esse conceito. A investigação descobriu que a refinaria tinha um “longo histórico de vazamentos frequentes em flanges e incêndios ocasionais” durante a partida de um banco de trocadores de calor. Soluções paliativas, como o uso de “lanças de vapor” para dispersar vazamentos inflamáveis, tornaram-se parte da rotina. O que deveria ter sido um sinal de alarme inaceitável tornou-se uma inconveniência esperada e gerenciada.

A normalização do risco foi tão profunda que, em vez de eliminar o perigo, a solução da gestão foi mobilizar mais pessoas para gerenciá-lo. O procedimento de partida era tão exigente e perigoso que “seis funcionários adicionais foram chamados para ajudar o operador externo”. Essa decisão, destinada a controlar um processo inerentemente falho, apenas colocou mais pessoas em perigo, aumentando tragicamente o número de fatalidades quando a catástrofe finalmente ocorreu.

——————————————————————————–

Conclusão: As Lições que Não Podemos Ignorar

Os desastres industriais não são falhas técnicas aleatórias. Eles são o resultado de padrões profundamente enraizados na cultura organizacional, na tomada de decisões gerenciais e no design de sistemas. Eles nos mostram que a verdadeira segurança não vem de métricas superficiais ou da busca por culpados, mas de uma compreensão profunda de como os sistemas falham e de uma vigilância constante contra a complacência.

As lições são claras: os acidentes se repetem, boas métricas podem enganar, o erro humano é um sintoma, e o que é perigoso pode se tornar rotineiro. A pergunta final que cada um de nós deve fazer não é apenas para os líderes industriais, mas para nós mesmos. Em nosso próprio trabalho e vida, quais “pequenos riscos” estamos normalizando e quais sinais silenciosos de um sistema sob tensão estamos escolhendo ignorar?

Referências

Sanders, Roy E.. (2015). Chemical Process Safety – Learning from Case Histories (4th Edition) – 4.1 Unfortunately – There is Often a Certain Sameness in Process Incidents. Elsevier. Retrieved from <br>https://app.knovel.com/hotlink/pdf/id:kt010QIS42/chemical-process-safety/unfortunately-there-is

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *