viernes, 29 de junio de 2007

La singularidad tecnológica

Iba a dedicar inicialmente la entrada a ciertas singularidades que se dan en la ciencia y la tecnología, como la singularidad de Prandtl-Glauert o los mismos agujeros negros, pero rebuscando en la red me he topado con la singularidad tecnológica, de la que ya había leído algo previamente pero no tan en profundidad. Realmente interesante.

La singularidad tecnológica hace referencia al momento en que la inteligencia artificial supere a la humana en términos generales, permitiendo a las máquinas con semejante capacidad de cómputo sobrepasar con creces cualquier actividad intelectual humana. Algunos estudiosos como Vernor Vinge fijan esta singularidad en unas dos décadas, para antes de 2040, y lo cierto es que al ritmo actual parece posible pero, ¿qué pasará entonces? ¿Cuáles serán las consecuencias? La siempre abundante ciencia ficción ha relatado ya de todas las maneras imaginables un incierto futuro con máquinas más inteligentes que los propios humanos, empezando por Matrix.

Lo verdaderamente fascinante de esta idea es que esa primera generación de máquinas más inteligentes podrán también empezar a desarrollar a su vez otras máquinas con mayor inteligencia, y así de forma sucesiva y exponencial. Esta espiral vertiginosa de mejoras tendería en poco tiempo a infinito, obteniendo la singularidad ya nombrada. Los humanos, mucho más limitados, seríamos incapaces de asimilar las nuevas mejoras de las máquinas en un hipotético futuro así. Y aunque muchos científicos desde luego niegan que se pueda llegar a este extremo, o aseguran que nosotros mismos le pondremos límite al desarrollo de nuestros propios ordenadores, lo cierto es que algunos otros pioneros del campo como Ray Kurzweil opinan todo lo contrario. Kurzweil es el autor de uno de los refinamientos de la conocida Ley de Moore, que avala la idea de que el número de transistores en una computadora se duplica cada vez más rápido, y no cada dos años como dijo Moore.

¿Interesante? ¿Aterrador? Quizá en menos de lo que esperamos comprobemos si todo esto es posible, y a donde conduce. Entre las cuestiones más discutibles acerca de esta teoría, es si el actual modelo computacional (el de Turing que todos conocemos) puede realmente alcanzar semejante extremo de desarrollo, o si habría que cambiar a otro modelo más sofisticado. Por otra parte, algunas simplificaciones de los partidarios de la singularidad tecnológica no están nada claras. Por ejemplo, ¿se puede equiparar capacidad de cómputo con verdadera inteligencia? ¿Hasta qué punto puede decidir por sí misma una máquina?

Sea como sea, si se alcanza la singularidad, será imposible predecir lo que pasará después, es la gran magia del asunto.


4 comentarios:

Elía dijo...

Desde el principio de los tiempos el hombre ha ansiado conseguir todo aquello que tenía. En un principio ansiaba comer, ¿y qué se le ocurrió? comerse las plantitas. Luego llegó el invierno y sentía la necesidad de taparse ¿y qué se le ocurrió? matar animales para quedarse con sus pieles. A esto e le añadía que luego comía su carne, luego inventó el fuego...
Seguidamente domesticó a los animales, y aparecieron las primeras "granjas", aumentaron la capacidad cazadora (nuevas y mejores armas). Y así poco a poco han ido ocurriendo estas cosas.
Primero llegó un afán de construcción, dominado por fuertes culturas como la griega o la romana y más tarde llegó el sentimiento de la cultura. Si te das cuenta lo que sobre todo ha reinado en nuestra historia ha sido la política. En un principio los hombres solo querían saciar su hambre, pero viendo que podía matar animales, empezó a cazar en masa para mostrar su poderío. Luego los domesticó, más que nada porque se dió cuenta que la subordinación es algo más humillante que la muerte. Lego llegaron los griegos y persas, guerreando por el dominio de las ciudades. Más tarde los romanos, con su imperialismo por todo el mundo. Cuando estos llegaron a su declive aparecieron los musulmanes y los bárbaros, que también querían el poder de las tierras. Luego llegaron los europeos encabezados primeros por los españoles y así hasta largos siglos después con rusos, norteamericanos e incluso chinos.
Bueno, después de todo esta chapa puedes preguntarte ¿y esto a qué viene?
Pues vale:
1) Me aburro y así escribo algo
2) Tu también te aburres y así tienes algo para leer
3) Llegar a una conclusión (¿)descabellada(?):
Lo que quiero hacer que pienses es que lo que ha movido a la humanidad ha sido el poder, no ha querido que otro pueblo, raza o lo que sea le haya dominado, y para ello se ha servido de su inteligencia. Su inteligencia le sirve para hacer tanto robots como para imaginarse un mudo caótico con ellos (Matrix, IA, ...). Mi pregunta es, ¿Tú crees que el hombre va a decidir crear a un robot, humanoide, maquinita o lo que sea que sea lo suficientemente listo como para dominarle o para construir otra cosa que lo domine?
Y no me sirve que pueda tener un cacharro para hacer estallar al robot porque ya sabemos lo que pasa (vease Dragon Ball Z cuando Krilin no se carga a C18),
Pues eso, que me aburría...

Jesús dijo...

Oh, estimas demasiado a la humanidad, yo creo que fácilmente podemos meter la pata y dejarnos gobernar por cyborgs XD

Nah, realmente no creo que se llegue a un punto de tanto desarrollo en cuanto a IA, las suposiciones de la singularidad tecnológica creo yo que fallan en aspectos básicos, como el equiparar cálculo bruto con inteligencia.

Anónimo dijo...

Hola Jesus, ¿Nah, no crees en que la IA pueda superar pronto a la inteligencia humana? Pues quizas lo que ocurre es que "No deseas que esto suceda". No confundas lo probable con lo que deceamos.
Mhh, y Calculo bruto "ES" inteligencia... aunque no lo quieras.
Gustavo.

Anónimo dijo...

edus tulloch diary performed scale character corporations inadequacy branches widespread populated
lolikneri havaqatsu