mayo 10, 2024

CORSA Online

Información sobre Argentina. Seleccione los temas sobre los que desea obtener más información en Corsa Online

Investigadores estiman el riesgo de extinción humana para el año 2100

Investigadores estiman el riesgo de extinción humana para el año 2100

Un estudio del American Institute for Forecasting Research titulado Predicción del riesgo existencial: evidencia de un torneo de pronóstico a largo plazo. (Engel: “Pronóstico de riesgos existenciales: resultados impugnados para predicciones a largo plazo”) Llegó a la conclusión de que los riesgos del fin del mundo para 2100 oscilan entre el 1 y el 7%. Contrariamente a las expectativas, el mayor peligro no proviene ni del cambio climático ni de la guerra nuclear.

El estudio recupera datos del concurso de debate “XPT”.

El estudio, que fue financiado por la fundación del CEO de Tesla, Elon Musk, entre otros, obtuvo sus datos de una competencia de discusión de cinco meses especialmente diseñada llamada “XPT” (abreviatura de “Torneo de persuasión de riesgo existencial”). por ejemplo. Competencia de persuasión con riesgos existenciales.

En esta competencia, 80 expertos en pronosticadores a largo plazo se compararon con 89 expertos en súper pronosticadores, no expertos que tuvieron una tasa de éxito excepcional en pronósticos a corto plazo en el pasado. Ambos grupos se dieron a la tarea de definir los escenarios más precisos posibles para las amenazas globales como la guerra nuclear, las pandemias y la inteligencia artificial a través de una discusión conjunta.

Cualquiera que convenciera a un miembro del otro grupo de cambiar sus expectativas también sería recompensado con una recompensa. Las predicciones “interobjetivas” precisas, predicciones sobre las probabilidades que otros participantes podrían llamarlas, también dieron como resultado dinero adicional.

Los expertos calificaron todos los riesgos más altos que Superforecaster

Lo sorprendente de los resultados fue que, sin excepción, los expertos clasificaron los peligros por encima de los superstreamers. Los expertos con conocimientos especializados en el área relevante del riesgo a evaluar también siempre calificaron el riesgo más alto que los colegas no especialistas.

READ  La Organización Mundial de la Salud advierte sobre la variante Corona Eris: Así de peligrosa es la variante del virus Omicron EG 5

Por ejemplo, los expertos estiman que el riesgo a largo plazo de que la humanidad sea aniquilada por patógenos modificados por humanos es del 0,1 %, mientras que Superforecaster lo estimó en solo el 0,01 %. Entre los expertos a largo plazo, aquellos con antecedentes médicos o científicos calificaron el riesgo como más alto, con un 0,1 %.

Con un 0,008 %, los expertos estiman que el riesgo de que la humanidad sea aniquilada por patógenos naturales es mucho menor que por un desastre provocado por el hombre. Superforecaster estuvo de acuerdo con los expertos. Sin embargo, estimaron el riesgo en 0,0018%. Los expertos médicos y científicos sitúan el riesgo en un 0,01%.

La guerra nuclear es el segundo mayor peligro

Los expertos estimaron que la amenaza de guerra nuclear fue la causa de la aniquilación humana en un 0,19%, los comandantes superiores en un 0,074% y los estrategas militares en un 0,55%.

Cuando se trata de desastres naturales, como las consecuencias del cambio climático, todos los expertos fueron sorprendentemente unánimes. Estimaron unánimemente el riesgo de extinción humana debido a desastres naturales en 0,004%. Superforecaster puso la probabilidad en 0.0043%.

En general, los expertos sitúan el riesgo de extinción para el año 2100 en un 6 %, mientras que las superestrellas sitúan lo mismo en un 1 %.

IA: con mucho, la más peligrosa

Sin embargo, ambos grupos no vieron un desastre nuclear o natural como el mayor peligro para la humanidad, sino la inteligencia artificial. Los expertos calificaron a Risk con un 2 % y Superforecaster con un 0,38 %. Incluso los expertos que están involucrados profesionalmente en inteligencia artificial califican el riesgo en un 3%.

READ  "Con 1,5 grados corremos grandes riesgos".

En general, los expertos han clasificado los riesgos de la siguiente manera (de grave a menos grave):

  1. inteligencia artificial
  2. guerra nuclear
  3. desastres naturales
  4. Epidemias provocadas por el hombre
  5. Las epidemias, por supuesto.

Las debilidades del estudio proporcionan preguntas de investigación para y sobre el futuro.

En su discusión final, los autores del estudio se preguntan por qué los pronosticadores, incluso después de meses de discusión y el incentivo financiero de argumentos convincentes, lograron cambiar la opinión de los miembros del otro grupo. ¿Por qué los grupos no llegaron a un consenso?

¿Los sigues? entradas de blog Y Mensajes del foro De los participantes individuales del estudio, uno aprende que la discusión dentro de “XPT” ocurrió principalmente a través del intercambio de mensajes electrónicos. A menudo tomaba una semana recibir el contraargumento de la otra parte. Como resultado, la motivación y la comprensión de los participantes podrían haber sufrido.

En el Apéndice 1 de su trabajo, los autores del estudio también describen lo difícil que fue encontrar expertos dispuestos a participar. participantes individuales Describieron en retrospectiva la impresión de que tenían dificultades para tomar en serio a algunos de los expertos invitados. El 19% de los superstreamers reclutados y el 51% de los expertos interrumpieron el estudio antes de tiempo.

La cuestión de la falta de consenso entre los pronosticadores a corto y largo plazo también puede ser una de las metadiscusiones (requisitos previos de diseño para la discusión y su dinámica), así como una diferencia relacionada con el contenido.