Pesquisadores da Unesp em São José dos Campos e do Centro Nacional de Monitoramento e Alertas de Desastres Naturais (Cemaden) desenvolveram um algoritmo para prever deslizamentos de terra em áreas de risco no litoral norte de São Paulo. Há cerca de um ano, a região sofreu com chuvas que acumularam mais de 600mm em 24 horas, temporal foi considerado o maior que se tem registro no País. Ele deixou um rastro de destruição principalmente em São Sebastião, culminando em deslizamentos de terra que deixaram 65 mortos na região, além de casas destruídas e rodovias bloqueadas.
Os pesquisadores utilizaram algoritmos de aprendizado de máquina para gerar mapas com as principais zonas de risco de deslizamentos de terra em São Sebastião. Enner Alcântara, docente do Instituto de Ciência e Tecnologia da Unesp, diz que a combinação de fatores naturais, como a presença da Serra do Mar, com pressões antrópicas, como a urbanização crescente, destacou a importância de métodos avançados de aprendizado de máquina para mapear e prever áreas suscetíveis a deslizamentos.
No artigo, intitulado Machine learning approaches for mapping and predicting landslide-prone areas in São Sebastião (Southeast Brazil), o grupo de pesquisadores selecionou o algoritmo mais eficiente e com maior taxa de precisão na previsão de desastres. Além disso, também identificaram quais características ambientais e de ocupação têm maior impacto no risco de deslizamento.
Como foi desenvolvido o algoritmo para áreas de risco
Uma primeira etapa da pesquisa consistiu em testar cinco dos algoritmos mais utilizados em trabalhos de previsão de desastres para conseguir identificar aquele com a melhor precisão. Para isso, o grupo alimentou os modelos com informações de clima, tipo de solo, tipo de vegetação, relevos da região, acidentes anteriores e ocupação de terra.
Com isso, o conjunto de algoritmos selecionados passaram por um treinamento para aprenderem a identificar as combinações de fatores que levaram a deslizamentos, tendo como base eventos passados. Depois, foram testados realizando novas previsões de áreas de risco.
Segundo os pesquisadores, o grupo decidiu trabalhar com modelos de aprendizado de máquina porque eles são particularmente bons para lidar com uma grande quantidade de dados, além de serem capazes de identificar padrões que são praticamente impossíveis de vislumbrar com outras técnicas ou mesmo com a análise humana.
Modelo adotado chegou a 99,6% de precisão
Nos testes comparativos, o modelo chamado de Gradient Boosting (GB) se destacou. Na escala AUC-ROC, utilizada para medir a performance geral dos algoritmos, o modelo GB alcançou uma performance de 0.963 – a pontuação máxima que pode ser atingida é 1. Além disso, o modelo chegou a 99,6% de precisão, enquanto o segundo colocado, chamado de Random Forest, obteve 90.2% no mesmo teste.
Alcântara explica que as técnicas tradicionais empregadas para previsão de deslizamentos de terra se baseiam principalmente em abordagens físicas e estatísticas. Segundo o pesquisador, alguns dos principais desafios enfrentados pelas técnicas tradicionais envolvem a necessidade de informações precisas e de dados de alta resolução, que nem sempre estão disponíveis.
Além disso, elas tendem a não apresentar bom desempenho quando expostas a uma grande quantidade de dados, por exemplo, ao tentar fazer previsões em áreas extensas ou em regiões que apresentam uma grande variabilidade ambiental. É justamente nessas lacunas que as técnicas de aprendizado de máquina prosperam.