El científico Stephen Hawking alertó sobre el desarrollo de la inteligencia artificial y el grave peligro que se cierne sobre el futuro de la humanidad si no se afrontan desde ahora los riesgos que implica.
«El éxito en la creación de la inteligencia artificial podrá ser el evento más grande en la historia de la humanidad. Desafortunadamente también sería el último, a menos de que aprendamos cómo evitar los riesgos», advirtió en 2014 en una publicación en el The Independent.
https://www.youtube.com/watch?v=ArFisCyYnIE
Desde esa fecha los principales argumentos de su posición crítica y la mayoría de sus advertencias públicas de los últimos años frente a la inteligencia artificial.
En ese sentido advertía que la falta de protocolos o regulación en los avances de la inteligencia artificial generaban muchos riesgos.
A pesar de que en escenarios como la Web Summit de 2017, el astrofísico señalaba que estos sistemas podría llevar al exterminio de la raza humana si no llegaban a ser suficientemente controlados, tampoco promovía la prohibición de las investigaciones en el campo, sino que hacía un llamado a la comunidad científica a estudiar seriamente el tema.
El científico llamaba la atención sobre la temática diciendo que al entender los innumerables riesgos o beneficios de la IA existían «pocas investigaciones serias a estos temas fuera de institutos sin fines de lucro como el Centro de Cambridge para el Estudio del Riesgo Existencial, el Instituto del Futuro de la Humanidad, el Machine Intelligence Research Institute y el Future of Life Institute».
Con la creencia de que la comunidad científica aún no se estaba preocupando lo suficiente por mantener bajo control un eventual sistema de inteligencia artificial autónoma el día en que se descubriera, el físico también publicó un artículo en conjunto con los expertos Stuart Russell, especialista en computación, y los físicos Max Tegmark y Frank Wilczek.
Mientras que el impacto a corto plazo de la inteligencia artificial depende de quién lo controla, el impacto a largo plazo depende de si se puede controlar en absoluto. (ECHA- Agencias)