No dia 1º de fevereiro de 2003 o mundo assistiu, horrorizado, ao ônibus espacial Columbia se desintegrar ao reingressar na atmosfera terrestre, matando os sete astronautas a bordo. Para alguns, a incapacidade da NASA de reagir com a devida intensidade ao problema na raiz do acidente – o deslocamento de uma placa do isolante térmico da nave – foi sinal de irresponsabilidade ou incompetência na gestão. Já a pesquisa dos autores sugere que a agência espacial americana exibia um padrão de comportamento que, embora infeliz, é natural e comum a muitas organizações. A ruptura do isolante é um exemplo perfeito do que os autores chamam de ameaça ambígua – sinal que pode ou não prenunciar problemas futuros.

Uma ameaça ambígua difere da ameaça com causas óbvias – um incêndio nas instalações, por exemplo -, para as quais a resposta é clara. Difere, ainda, de ameaças nítidas para as quais a resposta não é óbvia (como a aterradora explosão do tanque de oxigênio a bordo da nave Apollo 13). Já se um sinal de alerta é ambíguo e o potencial de danos em decorrência do evento é incerto, o risco muitas vezes é ignorado ou menosprezado – o que pode ser catastrófico.

Uma empresa que sabe lidar bem com ameaças ambíguas não improvisa durante uma crise; o que faz é aplicar, com todo rigor, uma série de medidas de detecção e resposta projetadas e praticadas de antemão. Neste artigo, os autores mostram como implementar um processo desses muito antes que uma crise se instale. Primeiro, a empresa deve burilar, com a prática, a capacidade de resolver problemas com rapidez e o trabalho em equipe. Depois, deve aprender a identificar sinais débeis, a amplificar a ameaça e a incentivar o pessoal a lançar perguntas desconcertantes em um ambiente seguro. Por fim, deve explorar possíveis respostas a ameaças por meio de testes rápidos e baratos.

É comum a empresa ignorar pequenos sinais que podem – ou não – ser o prenúncio de problemas para seu mercado ou sua reputação. Eis um modo sistemático de analisar e reagir a sinais débeis. 

No dia 1º de fevereiro de 2003 o mundo assistiu, horrorizado, ao ônibus espacial Columbia se desintegrar ao reingressar na atmosfera terrestre, matando sete astronautas. A investigação revelou que um grande fragmento do isolante térmico se deslocara do tanque externo da nave durante o lançamento, danificando parte de uma asa e causando o acidente 16 dias depois.

Para alguns, a incapacidade da NASA de reagir com a devida intensidade ao incidente com o isolante durante a missão final do Columbia foi sinal de irresponsabilidade ou incompetência na gestão. Já nossa pesquisa sugere que a agência espacial americana exibia um padrão de comportamento que, embora infeliz, é natural e comum a muitas organizações. A ruptura do isolante é um exemplo perfeito do que chamamos de ameaça ambígua – sinal que pode ou não prenunciar problemas futuros. Certas ameaças são óbvias (o risco de um grande terremoto na Califórnia, por exemplo) e a resposta é clara (modernizar edifícios e instalar sistemas auxiliares). Em outros casos a ameaça é óbvia, mas a resposta correta, não (como durante a aterradora explosão do tanque de oxigênio a bordo da nave Apollo 13); tais ameaças desencadeiam um esforço intensivo de solução do problema. Já as situações mais perigosas são aquelas nas quais um sinal de alerta é ambíguo e o potencial de danos para a empresa em decorrência do evento é incerto. Em um caso desses, a direção tende a ignorar ou menosprezar o risco e adotar a postura do esperar-para-ver – o que pode ser catastrófico.

Quando houve o deslocamento do isolante, o pessoal da NASA no comando do lançamento não sabia ao certo o que ocorreria em virtude daquilo. Engenheiros haviam constatado o problema durante o exame rotineiro de imagens de lançamentos – gravadas, infelizmente, de um ângulo desfavorável para avaliação dos danos. Mas a cúpula minimizara os riscos, observando que incidentes similares haviam causado danos no passado, mas jamais um grande acidente. Inquietos, certos engenheiros disseram que o deslocamento nunca fora “tão grande” e pediram imagens adicionais, tiradas por satélite, da área atingida. O pedido foi rejeitado pela cúpula – que tampouco autorizou a vistoria externa pelos astronautas, o que teria permitido a constatação, e quem sabe até o reparo, do dano.

Catástrofes decorrentes de ameaças ambíguas afetam todo tipo de organização. Executivos da gigante farmacêutica Merck avaliaram mal a ameaça à sua reputação quando dados ambíguos iniciais vincularam o antiinflamatório Vioxx a riscos cardiovasculares. Os gerentes da Kodak desprezaram os primeiros sinais, ainda débeis, do colapso no mercado de filme fotográfico. Já a Schwinn não fez caso da ameaça da mountain bike, que acabou desbancando em popularidade a bicicleta comum da empresa. O aparelho de segurança nacional dos Estados Unidos, diante da cacofonia de informações dúbias sobre planos e intenções da Al Qaeda, minimizou a ameaça de um atentado terrorista antes do 11 de setembro de 2001.

Com base em nosso estudo detalhado da tragédia do Columbia (que levou dois anos), em pesquisas de campo e estudos de casos de outros setores, concluímos que a vigilância, por si só, não impedirá que ameaças ambíguas se transformem em erros onerosos (às vezes trágicos). Nossa pesquisa sugere que organizações que desenvolvem recursos sistemáticos para identificar, avaliar e enfrentar ameaças ambíguas são muito mais capazes de prevenir problemas sérios. Felizmente, cada risco traz consigo o que chamamos de “janela de recuperação” – tempo transcorrido entre o primeiro sinal de um problema potencial e uma grande pane. Nesse intervalo, um ou mais membros da organização se inteiram da ameaça. A janela de recuperação pode durar de minutos a meses. Enquanto permanece aberta, o desfecho adverso não é inevitável e a ação preventiva é possível.

Uma empresa que sabe lidar bem com ameaças ambíguas não improvisa durante essa janela de recuperação; o que faz é aplicar, com todo rigor, uma série de medidas de detecção e resposta projetadas e praticadas de antemão. Neste artigo, traçamos três passos para a implantação de um processo disciplinado muito antes que uma crise se instale. Em primeiro lugar, a empresa deve burilar, com a prática, a capacidade de resolver problemas com rapidez e o trabalho em equipe. Depois, deve aprender a identificar e a tirar proveito de janelas de recuperação durante as quais amplificar temporariamente a ameaça – deixando o pessoal à vontade para lançar perguntas e aventar hipóteses desconcertantes. Por fim, deve incentivar a busca de respostas a ameaças por meio de testes rápidos e baratos.

<strong
st
yle=”font-size: 10pt; font-family: Arial;”>Minimizando sinais sombrios

Por que a empresa é naturalmente inclinada a interpretar mal a ameaça ambígua? Fatores em três níveis – cognição humana, dinâmica de grupo e cultura organizacional – interagem de um jeito que predispõe a empresa a reagir com menos intensidade do que deveria quando sinais de futuros problemas são dúbios.

Cognição humana. O primeiro impedimento à resposta a ameaças ambíguas emana de vieses cognitivos – aquilo que, nas palavras da acadêmica Roberta Wohlstetter, é nosso “teimoso apego a noções vigentes”. Para se proteger do medo, a mente humana tende a suprimir percepções sutis de perigo. Além disso, temos o hábito de perceber e enfatizar dados que confirmem as visões e hipóteses que já temos, desprezando informações que as contradigam. Isso explicaria por que foi difícil para os oficiais da NASA acreditar que o deslocamento do isolante durante o lançamento do Columbia trazia riscos. Esse tipo de incidente e até os danos dele resultantes eram comuns no lançamento das espaçonaves e, apesar deles, todo ônibus espacial lançado desde 1986 tinha retornado sem problemas, reforçando a crença de que tal deslocamento não trazia riscos reais. Com o tempo, a NASA foi se empenhando cada vez menos na busca de informações contrárias a essa conclusão, deixando inclusive de consertar câmaras que filmavam o lançamento das naves.

Para piorar, diante de evidências vagas, muitas vezes intensificamos nosso compromisso com um curso de ação existente, sobretudo se nele já investimos considerável tempo e dinheiro. Na NASA, certos engenheiros – incomodados com a escassez de dados sobre o efeito do deslocamento do isolante em missões do ônibus espacial – haviam pedido imagens adicionais de satélite durante a última missão do Columbia. Como durante a fase final de preparativos para o vôo os gerentes já haviam aprovado a conclusão de que o deslocamento não trazia prejuízos à segurança da missão, o pedido foi negado. Com isso, a tese de que o deslocamento do isolante era inócuo não pôde ser questionada.

O médico David Graham, do setor de segurança de medicamentos da vigilância sanitária dos EUA, a Food and Drug Administration, constatou dinâmica semelhante na agência durante um depoimento ao Congresso sobre o caso Vioxx. Na época, a equipe que aprovava o lançamento de um medicamento no mercado também era responsável por checar sua segurança depois de lançado.

Dinâmica de grupo. A dinâmica de grupo abala ainda mais a capacidade do gestor de enfrentar ameaças ambíguas. É comum uma empresa reunir especialistas em equipes ad hoc, em vez de pensar e montar um grupo de desempenho ótimo. Uma série de indivíduos capazes não resulta, necessariamente, em um grupo de trabalho sólido. Para montar uma equipe eficaz é preciso pensar bem sobre a estrutura e a composição do grupo, a atribuição de papéis e responsabilidades e sua relação com outras áreas da empresa.

A Equipe de Avaliação de Destroços – responsável por avaliar o deslocamento do isolante e criada às pressas pela NASA após o lançamento – foi mal estruturada e trabalhava com dados limitados. Seus integrantes nunca haviam atuado juntos em problemas críticos, com prazos apertados. O grupo não tinha normas claras, verbas, estrutura de subordinação – nem um espaço formal dentro da NASA. Tentou operar com uma difícil estrutura de liderança compartilhada, o que deixou certos membros se perguntando quem estava no comando.

O clima da equipe é tão importante quanto sua estrutura. Em muitos grupos falta um senso de segurança psicológica – e, com isso, seus integrantes ficam sem coragem de abordar questões difíceis, expressar opiniões divergentes ou falar abertamente sobre ameaças ambíguas. Quem chama a atenção para tais ameaças é marginalizado, relegado ao ostracismo, talvez até tachado de covarde. Muitos indivíduos na NASA disseram que a dinâmica de grupo não incentivava a discussão franca dos riscos. Transcrições de reuniões mostram que os líderes não buscavam ouvir opiniões divergentes. Agendas lotadas inibiam a discussão ponderada de potenciais ameaças. Diferenças de hierarquia e status impediam que engenheiros de escalão inferior expressassem seus temores.

Já organizações saudáveis estimulam o conflito construtivo. Um bom dirigente rompe barreiras à comunicação franca para que a empresa possa encarar com eficácia as ameaças competitivas. Dá poder ao pessoal da linha de frente para falar abertamente com os superiores sobre sinais de potenciais problemas. Andy Grove – que aprendeu a lição em 1994 quando a Intel, em um incidente notório, ignorou indícios de falhas no processador Pentium -, descreve aqueles que se dispõem a desafiar o senso comum e a apontar ameaças potenciais como “Cassandras úteis”.

Cultura organizacional. Quando a empresa amadurece sua cultura, passa a exibir dois traços que, juntos, inibem a resposta à ameaça ambígua. Muitas organizações, sobretudo científicas, adquirem uma forte cultura movida a dados – na qual toda conclusão precisa ser provada por estudos com grandes amostras em níveis estatisticamente relevantes. Não é um traço negativo em si. Contudo, depois de anos de êxito com dada tecnologia, a empresa pode acabar refém da suposição de que ela é sólida. Se surge uma ameaça ambígua, quem fareja o problema precisa provar, com estudos estatisticamente relevantes, que a tecnologia traz riscos. Não há espaço para temores intuitivos e dados parciais. A potencial ameaça é enterrada em meio a exigências rígidas de “prova científica”.

Ao notarem que o fragmento de isolante deslocado era maior do que o normal, engenheiros da NASA tiveram o palpite de que algo estava errado, mas não tinham dados suficientes para provar que a nave corria risco. Precisavam de mais informações, como imagens de satélite da asa avariada. Só que, ao pedir tais imagens, não tinham indícios suficientes para justificar o custo extra do satélite. Na verdade, a cúpula da agência queria dados concretos para justificar a busca de dados concretos. Roger Tetrault, membro do comitê de investigação do Columbia, descreveu assim a circularidade: “Prove que há algo errado e, se puder provar que há algo errado, vou investigar”. David Graham sugeriu que os cientistas da FDA enfrentam problema semelhante ao tentar argumentar que remédios aparentemente eficazes deveriam ser retirados do mercado.

O desafio de lidar com ameaças ambíguas fica mais difícil quando os gerentes formulam de modo inadequado o trabalho de uma organização. Há duas abordagens possíveis: a empresa pode aplicar uma mentalidade operacional, encarando o trabalho como uma empreitada rotineira sujeita a uma série de procedimentos padronizados e fundada em orçamentos e cronogramas detalhados – ou, então, adotar uma me

ntalidade experimental, abordando o trabalho como um esforço de pesquisa e desenvolvimento no qual testar, aprender e adaptar pesam mais do que a padronização. Em tal ambiente, o comportamento é muito mais exploratório e todos estão cientes do estado impreciso do conhecimento técnico.

O problema surge quando a mentalidade errada é aplicada à organização. Como boa parte das inovações tecnológicas, a exploração espacial é algo basicamente experimental – e assim deveria ser tratada. Cada vôo deveria ser um teste e uma fonte de dados importantes, e não uma aplicação rotineira de práticas anteriores. Se a NASA tivesse preservado a mentalidade experimental que reinava na agência nos anos da Apollo, anomalias como a ruptura do isolante talvez tivessem sido vistas como belas oportunidades para aprender. Infelizmente, a NASA abandonou tal mentalidade na década de 1970, quando buscou verbas junto ao Congresso para o programa do ônibus espacial. A NASA promoveu a nave como um veículo espacial reutilizável que reduziria drasticamente o custo de levar objetos ao espaço. A agência estimava que o ônibus espacial faria 50 viagens por ano. Sheila Widnall, ex-secretária da Força Aérea americana e integrante do comitê investigador do acidente, explicou que a NASA via o Columbia como “um 747 que se podia simplesmente aterrissar, manobrar e recolocar em operação”. O programa começou a ser visto como um esforço de rotina, e não exploratório. Dentro dessa mentalidade operacional, e não experimental, a agência só enxergava cronogramas e um conjunto rígido de protocolos de comunicação. Aqui, investigar um incidente de rotina com o isolante seria uma ameaça a orçamentos e cronogramas.

Fatores cognitivos, dinâmica de grupo e barreiras culturais podem, sozinhos, tornar difícil para uma empresa a compreensão de uma situação dúbia. Ao atuar em conjunto, cada força dessas serve para agravar a outra e criar um coquetel potente que previne a resposta imediata à ameaça ambígua.

Prevenindo problemas

Para prevenir problemas catastróficos, é preciso aprender a identificar janelas de recuperação e a mantê-las abertas o máximo possível para que a organização tenha tempo de esboçar soluções criativas. Uma janela de recuperação deve ser vista como a oportunidade de aprender e melhorar, ainda que a ameaça se revele benigna. Certos gerentes dirão que o disparar prematuro e freqüente de alertas irá gerar um excesso de alarmes falsos. Nossa pesquisa revela, contudo, que é possível aprender bastante até com alarmes falsos. O benefício de explorar ameaças ambíguas supera de longe o custo – desde que a empresa tenha adotado um processo ágil e disciplinado para avaliar sinais de alerta iniciais. Para implementar esse processo é preciso seguir três passos.

Primeiro passo: praticar trabalho em equipe sob pressão. Em geral, a organização não pode se dar ao luxo de agir com calma durante uma crise. Com a aproximação da potencial pane, o estresse e a ansiedade correm soltos. Logo, nenhuma empresa deveria improvisar em meio a uma janela de recuperação. Quando todo segundo conta, é contraproducente montar uma equipe no ato e pedir que seus integrantes trabalhem juntos com eficácia.

Já que uma janela de recuperação exige atitudes e regras de decisão distintas das de operações de rotina, ensaiar a resposta a uma ameaça é útil. É óbvio que uma empresa não pode criar planos de contingência e ensaiar respostas para todo tipo de ameaça que possa surgir. O que deveria fazer é adquirir recursos genéricos de janelas de recuperação para utilização diante de um amplo espectro de ameaças, inclusive as de difícil previsão. Ao praticar a resolução de problemas sob pressão do tempo, mas na ausência de ameaças ambíguas, a empresa pode aprimorar processos de avaliação de problemas e produzir soluções criativas.

O grupo de tecnologia da informação do Morgan Stanley ensaia respostas a várias ameaças, como catástrofes naturais, terrorismo ou ataques a sua rede por hackers sofisticados – coisas capazes de abalar o funcionamento dos sistemas da firma. O pessoal do aeroporto Logan, de Boston, realiza exercícios regulares de resposta a ameaças terroristas. Em uma empresa aeroespacial, os gerentes usam cenários hipotéticos para encontrar meios de rebater investidas da concorrência como fusões ou alianças entre rivais. Com esse tipo de ensaio, os envolvidos passam a conhecer pontos fortes e fracos uns dos outros, e papéis informais ficam claros. Quando a catástrofe se instala, já sabem a quem recorrer para uma análise inteligente, quem tenderá a propor as soluções mais criativas e quem provavelmente reagirá de modo exagerado sob estresse.

 Antes que seu foco migrasse da P&D para operações, a NASA também fazia exercícios regulares de combate a incêndios. A resposta rápida e eficaz do diretor de vôo Gene Kranz durante a crise da Apollo 13 não foi apenas um brilhante ato de improvisação. Kranz e a equipe simulavam com freqüencia situações de crise sob a observação de instrutores capacitados que buscavam melhorar os recursos de comunicação e processamento da informação dos integrantes. Kranz estudou como seu pessoal se saía em situações de estresse e criou um processo organizacional de resolução de problemas muito antes do registro de catástrofes. Quando o tanque de oxigênio da Apollo 13 teve problemas, a equipe estava preparada, ainda que a situação fosse inédita. No livro O Momento de Liderar, Michael Useem observa que Kranz usava esses ensaios gerais para ajudar cada membro da equipe a aprender a “compensar pelo outro”, bem como a “comunicar e avaliar dados” com eficiência. Kranz queria, ainda, que todos aprendessem a tomar “decisões claras, com autoridade”, mas que estivessem sempre dispostos a “admitir quando não [sabem] o que está acontecendo e pedir ajuda”. A história da Apollo 13 reforça as palavras de Aristóteles, que disse: “A excelência, portanto, não é um ato, mas um hábito”.

Segundo passo: amplificar o sinal. Para enfrentar as incríveis forças psicológicas que abafam a ameaça ambígua o líder precisa criar processos para amplificar sinais de alerta, ainda que soem inócuos a princípio. É preciso contar com mecanismos que tornem legítimo, apropriado e mesmo bem-vindo abrir uma janela de recuperação diante de dados incompletos, porém preocupantes. A abertura da janela deveria iniciar um período breve, mas intenso, de profunda investigação, ensaio e solução de problemas no qual todos sintam liberdade para fazer perguntas incômodas sobre a potencial ameaça. Durante esse período o pessoal deve ser capaz de explorar a relevância de observações aberrantes sem medo de retaliação caso a ameaça se prove inofensiva.

le=”font-size: 8pt; font-family: Arial;”>Vejamos como certos hospitais acharam um meio de amplificar e explorar ameaças potenciais aos pacientes. Se um paciente sofria inesperadamente uma parada cardíaca, o hospital emitia um “código azul” – um alerta que punha em ação uma equipe de ressuscitação capacitada. Pesquisas mostraram, porém, que a equipe do hospital muitas vezes sabia que o estado do paciente vinha deteriorando horas antes de emitido o código azul – que costumava ser precedido de vários sinais de alerta iniciais, como alterações agudas no ritmo respiratório ou saturação de oxigênio, sinais sem relação, no caso, com o mal específico que levara a pessoa ao hospital. Em certos casos, a mudança no quadro era quantificável. Em outros, a enfermagem simplesmente observava uma alteração qualitativa na aparência, na capacidade cognitiva ou no comportamento do paciente.

O que se constatou, basicamente, é que havia uma janela de recuperação entre o surgimento dos primeiros sinais de deterioração e a parada cardíaca – janela que a equipe não vinha aproveitando.

Hoje, vários hospitais possuem uma lista de sinais de alerta que dão poder à enfermagem para convocar uma equipe de resposta rápida – composta de profissionais como enfermeiros especializados em assistência crítica e problemas respiratórios – para ajudar a determinar a importância de ameaças ambíguas. Tais equipes sabem avaliar rapidamente se um sinal de alerta merece maior atenção. São hábeis no diagnóstico rápido e na solução de problemas – tanto quanto em qualquer disciplina médica específica; sua função é determinar se é necessário um especialista. Esse processo de resposta rápida torna seguro, para enfermeiros sem experiência, soltar um alerta quando algo não parece bem. Certos hospitais, como o Baptist Memorial, em Memphis, nos EUA, registraram drástica redução no total de códigos azuis com a adoção de equipes de resposta rápida. Além disso, muitas outras idéias de aprimoramento teriam surgido desse processo, mesmo em casos em que a ameaça não se provou substantiva.

Outras organizações empregaram sistemas de informação para aumentar a sensibilidade a ameaças ambíguas e para sair em busca delas. A Electricité de France, que opera 57 usinas nucleares, monitora cada uma em busca de qualquer sinal de anormalidade, por menor que seja. Criou um sistema para detectar anomalias – um ligeiro atraso no deslize da barra de controle, por exemplo – e repassar a informação a operadores. A empresa de serviços financeiros Fidelity Investments provou que a mesma abordagem pode servir em um contexto bem distinto. A empresa alterou a configuração de seu sistema de controle de processos estatísticos para reduzir deliberadamente o limiar de detecção de potenciais problemas de qualidade, como um descompasso entre o retorno esperado e o retorno real de um instrumento financeiro em determinado período; isso significa que estava investigando desvios que ainda não constituíam problemas, mas que poderiam permitir um certo aprendizado. Com isso, a Fidelity praticou a resposta a ameaças ambíguas e incentivou o aprimoramento contínuo de seus serviços.

Terceiro passo: fazer experimentos. A avaliação de ameaças ambíguas muitas vezes exige uma rápida experimentação. É preciso, porém, cautela para não depender apenas do teste de hipóteses padrão. Quando há risco de uma catástrofe, experimentos científicos formais talvez exijam tempo demais, ou recursos valiosos demais. Para muitas empresas, o melhor seria uma experimentação exploratória, menos formal.

No livro Aprendizagem em Ação, o professor da Harvard Business School David Garvin explica que um experimento exploratório é criativo e iterativo, e “voltado à descoberta, ‘para saber o que aconteceria se…'”. Quem investiga coleta e interpreta rapidamente o feedback, para então esboçar novos ensaios. O experimento exploratório pode ser a criação rápida, bastante tosca, de protótipos de um produto novo. A Electronic Arts, por exemplo, determina se o público vai gostar ou não de um certo recurso de um video-game com o uso de protótipos simples que não reproduzem o jogo inteiro, mas apenas aquela parte específica para a qual se deseja o feedback. Dado o imenso custo de desenvolvimento de um videogame e a baixa probabilidade de que um projeto específico vire um grande sucesso, esses “miniprotótipos” permitem à Electronic Arts investigar potenciais problemas com mais rapidez e menor custo do que muitos concorrentes.

Em outros casos, o experimento exploratório significa fazer pressão sobre uma parte da empresa e observar como ela reage. O varejo costuma usar “falsos” clientes para chamar a atenção para uma questão específica que poderia indicar um problema maior e mais sério nas lojas. Uma sinalização confusa, por exemplo, pode levar o público a sair da loja frustrado e sem comprar nada – e quem sabe a começar a freqüentar as lojas de uma rival. É claro que o fato de um cliente sair da loja não é uma ameaça ao negócio. Já um grande número de clientes deixando um grande número de lojas de uma rede devido a um erro que pode ser prevenido poderia significar uma queda importante na fatia de mercado. Um espião pode ser instruído a reproduzir a reação de tal cliente em várias lojas, testando uma série de funcionários para ver como reagem. Com isso, o varejista pode saber se tem um problema sério e sistêmico – e, ainda, descobrir que certas lojas, sem o conhecimento da alta cúpula, acharam um jeito criativo de lidar com a questão.

A investigação do Columbia mostrou como pode ser fácil usar experimentos exploratórios. James Hallock, membro do comitê de investigação do desastre, precisou apenas de um lápis e de um selo para demonstrar seu raciocínio. Hallock descobriu que as especificações formais não exigiam que a área do ônibus espacial atingida suportasse mais do que um leve impacto de um objeto estranho. Os resultados de Hallock sugeriam que a superfície era muito mais vulnerável a danos causados pelo deslocamento do isolante do que supunham muitos oficiais da NASA. Com um experimento simples na própria cozinha, outro integrante do comitê, Douglas Osheroff, mostrou por que o deslocamento ocorrera – algo há anos intrigava a NASA. Isso tudo prova como a experimentação simples, rápida e barata pode ter alto valor informativo em uma janela de recuperação estreita.

  

Os três passos – praticar, amplificar o sinal e conduzir experimentos – ajudam a organização a descobrir como agir com eficácia quando surge uma ameaça considerável. Além disso, cada janela de recuperação é um importante exercício ao vivo para a empresa adquirir habilidades e rotinas de aprendizado cruciais. Em uma janela dessas o pessoal aprende a dizer o que pensa, a resolver problemas e a distinguir sinais importantes do mero ruído.

Além disso, essas experiências intensas e intermitentes de aprendizado podem lançar a semente da mudança cultural. Ao promover uma cultura que tolera a divergência e questiona supostas verdades, um exercício desses reforça a capacidade da organização de tomar decisões nas quais há muito em jogo. Essa mudança cultural provavelmente será lenta e gradual, incidente por incidente. Cada experiência na qual indivíduos e equipes trabalham juntos e com eficácia em uma janela de recuperação, em vez de lutar entre si e desperdiçar recursos, pode criar uma organização mais triunfante, mais voltada ao aprendizado.

____________________________________________________

Michael A. Roberto (mroberto@bryant.edu) é Trustee Professor of Management da Bryant University em Smithfield, Rhode Island, e autor de Why Great Leaders Don’t Take Yes for an Answer (Wharton School Publishing, 2005). Richard M.J. Bohmer (rbohmer@hbs.edu) é médico e professor associado de administração de empresas da Harvard Business School, em Boston. Amy C. Edmondson (aedmondson@hbs.edu) é titular da cátedra Novartis Professor of Leadership and Management da Harvard Business School

 

Share with your friends









Submit