Nick Bostrom, no livro “Superinteligência: Caminhos, perigos, estratégias”, narra: na tarde do dia 6 de maio de 2010, os mercados de ações dos Estados Unidos já apresentavam uma queda de 4% em virtude da preocupação com a crise de endividamento europeia.
Às 14h32, um grande vendedor (um conglomerado de fundos de investimento) iniciou um algoritmo de venda para liquidar um grande número de contratos futuros E-Mini S&P 500 a uma taxa de venda relacionada à liquidez medida minuto-a-minuto na transação.
Esses contratos foram comprados por algoritmos de negociação de alta frequência programados para eliminar rapidamente suas posições longas temporárias, vendendo os contratos para outros negociadores.
Com uma fraca demanda por parte de compradores fundamentais, os algoritmos de negociação começaram a vender E-Minis principalmente para outros algoritmos de negociação, criando um efeito de “batata quente”. Ele elevou o volume das negociações e isso foi interpretado pelo algoritmo de venda como um indicador de alta liquidez, induzindo o aumento da taxa com a qual os contratos E-Mini eram colocados no mercado, elevando a tendência de queda.
Em dado momento, os negociadores de alta frequência começaram a se retirar do mercado, secando a liquidez enquanto os preços continuavam caindo.
Às 14h45, a comercialização de E-Minis foi interrompida pelo circuit breaker, um mecanismo automático de interrupção das transações da bolsa. Quando a comercialização foi reiniciada, apenas cinco segundos depois, os preços estabilizaram e logo começaram a recuperar boa parte de suas perdas.
Mas, por um momento, no auge da crise, um trilhão de dólares desapareceu do mercado, e efeitos de propagação fizeram com um número substancial de transações de títulos individuais ser realizado a preços “absurdos”, tais como 1 centavo ou 100 mil dólares.
Após o fechamento do mercado naquele dia, os representantes das bolsas de valores se encontraram com as entidades reguladoras e decidiram cancelar todas as transações executadas com valores 60% (ou mais) maiores em relação aos níveis anteriores à crise. Consideraram tais transações “claramente errôneas” e, por isso, sujeitas ao cancelamento post facto, conforme previsto nas leis de negociação de ações.
Recontar aqui esse episódio é uma digressão porque os programas de computação envolvidos no Flash Crash não eram particularmente inteligentes ou sofisticados e o tipo de ameaça criada por eles é fundamentalmente diferente das preocupações levantadas por Nick Bostrom a seguir em relação à perspectiva da superinteligência de máquina.
Entretanto, esses eventos ilustram uma série de lições úteis. Uma delas é o alerta de interações entre componentes individualmente simples, como o algoritmo de venda e os algoritmos de negociação de alta frequência, podem produzir resultados complexos e inesperados.
Riscos sistêmicos podem se acumular em um sistema conforme novos elementos são introduzidos. Estes riscos não são óbvios até o momento quando algo dá errado – e algumas vezes nem mesmo quando isso acontece.
Outra lição é a de profissionais inteligentes poderem fornecer instruções para um programa com base em uma suposição aparentemente sensata e razoável, por exemplo, o volume de transações ser uma boa medida da liquidez do mercado. Isso pode produzir resultados catastróficos quando o programa continua a agir rigorosamente dentro da lógica segundo a qual foi instruído, mesmo em situações não previstas na qual tal suposição se mostra inválida.
O algoritmo só faz o que ele está programado para fazer. Se ele não for um tipo muito especial de algoritmo, ele não dá a mínima para o fato de ficarmos horrorizados com suas ações totalmente inapropriadas.
A terceira observação em relação ao Flash Crash é: embora a automação tenha contribuído para o incidente, ela contribuiu também para a sua solução. A lógica de interrupção automática pré-programada suspendeu a comercialização quando os preços saíram do controle. Ela foi programada para entrar automaticamente em ação, pois se antecipou corretamente quanto a eventos passíveis de acionar a interrupção. Eles poderiam acontecer em uma escala de tempo muito curta para a capacidade de resposta dos humanos.
A necessidade de funcionalidades de segurança pré-instaladas e de acionamento automático — em oposição à confiança no tempo de resposta de uma supervisão humana — mais uma vez antecipa um tema importante em nossa discussão sobre a superinteligência de máquina.
Flash Crash de 2010 publicado primeiro em https://fernandonogueiracosta.wordpress.com
Nenhum comentário:
Postar um comentário