El estudio muestra cómo el aprendizaje automático puede predecir eventos catastróficos raros, como terremotos o pandemias.

Providencia, Rhode Island [Brown University] Cuando se trata de predecir desastres causados ​​por eventos extremos (piense en terremotos, epidemias u «olas rebeldes» que pueden destruir estructuras costeras), el modelado por computadora enfrenta un desafío casi insuperable: estadísticamente hablando, tales eventos son tan raros que no hay suficiente datos para que usen modelos predictivos para predecir con precisión cuándo sucederán a continuación.

Pero un equipo de investigadores de la Universidad de Brown y el MIT dice que ese no tiene por qué ser el caso.

en nuevo estudio En Nature Computational Science, los científicos describen cómo combinaron algoritmos estadísticos, que necesitan menos datos para hacer predicciones precisas y efectivas, con una poderosa técnica de aprendizaje automático desarrollada en Brown y los entrenaron para predecir escenarios, probabilidades y, a veces, la línea de tiempo de eventos raros incluso aunque no tenían ningún registro histórico sobre ellos. .

Al hacerlo, el equipo de investigación descubrió que este nuevo marco podría proporcionar una forma de sortear la necesidad de las enormes cantidades de datos que tradicionalmente se necesitan para este tipo de cálculos y, en cambio, reducir el desafío significativo de predecir eventos raros a una cuestión de calidad. . sobre la cantidad

«Tienes que darte cuenta de que estos son eventos aleatorios», dijo George Karniadakis, profesor de matemáticas aplicadas e ingeniería en la Universidad de Brown y autor del estudio. “Una pandemia como la COVID-19, un desastre ambiental en el Golfo de México, un terremoto, un incendio forestal masivo en California, una ola de 30 metros que volca un barco: estos son eventos raros y porque son raros, no lo hacemos. tenemos una gran cantidad de datos históricos. No tenemos suficientes muestras del pasado para predecir. en el futuro. La pregunta que abordamos en el documento es: ¿Cuál es la mejor información posible que podemos usar para reducir la cantidad de puntos de datos? ¿nosotros necesitamos?»

READ  Envoltura de la naturaleza: un dispositivo simple que revela el alcance y la magnitud de todos los procesos biológicos

Los investigadores encontraron la respuesta en una técnica de muestreo secuencial llamada aprendizaje activo. Estos tipos de algoritmos estadísticos no solo pueden analizar los datos ingresados ​​en ellos, sino que, lo que es más importante, pueden aprender de la información para etiquetar puntos de datos nuevos y relevantes que son iguales o incluso más importantes para el resultado que se calcula. En el nivel más básico, permiten hacer más con menos.

Esto es fundamental para el modelo de aprendizaje automático que los investigadores utilizaron en el estudio. Este modelo se llama DeepOnet, y es un tipo de red neuronal artificial, que utiliza nodos interconectados en capas sucesivas que imitan aproximadamente las conexiones que realizan las neuronas en el cerebro humano.

DeepOnet es conocido como el motor neuronal profundo. Es más avanzado y poderoso que las típicas redes neuronales artificiales porque en realidad son dos redes neuronales en una, procesando datos en dos redes paralelas. Esto le permite analizar grandes conjuntos de datos y escenarios a una velocidad vertiginosa para extraer conjuntos igualmente grandes de posibilidades una vez que aprende qué buscar.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *