Definição – O que significa a Lei de Murphy?
A Lei de Murphy é um aforismo que afirma que tudo o que pode dar errado irá – a qualquer momento indefinido. Comumente aplicada à TI, a Lei de Murphy é altamente relevante para testes de software / hardware e outros tipos de engenharia. Também é baseado em uma visão científica dos sistemas naturais ou criados.
Definirtec explica a Lei de Murphy
Em termos científicos, a Lei de Murphy se baseia no conceito de entropia, também conhecido como a segunda lei da termodinâmica. A entropia, que postula a tendência eventual de um sistema ordenado à desordem, tem sido o esteio de várias teorias correlatas. Tanto a entropia quanto a Lei de Murphy, por exemplo, sugerem que durante um teste realizado centenas de vezes, o equipamento de teste manifestará falhas, testadores que falham em seguir procedimentos exatos ou outros tipos de erros e problemas inesperados, com base em sua probabilidade geral.
Desde sua origem conceitual em meados do século 19, a Lei de Murphy tem sido usada em testes e na esfera geral de TI. Os seres humanos que interagem com a tecnologia ficam frequentemente confusos ou frustrados por uma miríade de problemas diferentes, alguns relacionados ao funcionamento do equipamento e outros a erro humano. A Lei de Murphy é um método de antecipar e falar sobre vários tipos de problemas tecnológicos potenciais à medida que ocorrem ao longo do tempo.