Paul Allen: La singularidad no está cerca

A los futuristas les gusta Vernor Vinge y Ray Kurzweil han argumentado que el mundo se está acercando rápidamente a un punto de inflexión, donde el ritmo acelerado de máquinas cada vez más inteligentes pronto superará todas las capacidades humanas. Ellos llaman a este punto de inflexión el singularidad , porque creen que es imposible predecir cómo se desarrollará el futuro humano después de este punto. Una vez que estas máquinas existan, afirman Kurzweil y Vinge, poseerán una inteligencia sobrehumana que es tan incomprensible para nosotros que ni siquiera podemos adivinar racionalmente cómo se alterarían nuestras experiencias de vida. Vinge pregunta que reflexionemos sobre el papel de los seres humanos en un mundo en el que las máquinas son tanto más inteligentes que nosotros como nosotros somos más inteligentes que nuestros perros y gatos. Kurzweil, que es un poco más optimista, visualiza un futuro en el que los avances en nanotecnología médica nos permitirán descargar una copia de nuestros cerebros individuales en estas máquinas sobrehumanas, dejar nuestros cuerpos atrás y, en cierto sentido, vivir para siempre. Es algo embriagador.

Crédito: Revisión de tecnología

Si bien suponemos que este tipo de singularidad podría ocurrir algún día, no creemos que esté cerca. De hecho, creemos que tardará mucho en llegar. Kurzweil no está de acuerdo, basándose en sus extrapolaciones sobre la tasa de progreso científico y técnico relevante. Razona que la tasa de progreso hacia la singularidad no es solo una progresión de la capacidad en constante aumento, sino que de hecho se está acelerando exponencialmente, lo que Kurzweil llama el Ley de retornos acelerados . Él escribe que:



De modo que no experimentaremos 100 años de progreso en el siglo XXI; serán más como 20.000 años de progreso (al ritmo actual). Los rendimientos, como la velocidad del chip y la rentabilidad, también aumentan exponencialmente. Incluso hay un crecimiento exponencial en la tasa de crecimiento exponencial. En unas pocas décadas, la inteligencia de las máquinas superará la inteligencia humana, lo que llevará a The Singularity ... [1]

Al trabajar con un conjunto de modelos y datos históricos, Kurzweil calcula que la singularidad llegará alrededor de 2045.

Esta predicción nos parece bastante inverosímil. Por supuesto, somos conscientes de que la historia de la ciencia y la tecnología está plagada de personas que afirman con seguridad que algún evento no puede suceder, solo para luego demostrar que está equivocado, a menudo de manera espectacular. Reconocemos que es posible, pero muy poco probable, que Kurzweil finalmente sea reivindicado. Un cerebro adulto es algo finito, por lo que, en última instancia, se puede conocer su funcionamiento básico mediante el esfuerzo humano sostenido. Pero si la singularidad ha de llegar en 2045, se necesitarán avances imprevisibles y fundamentalmente impredecibles, y no porque la Ley de Rendimientos Acelerados lo convirtiera en el resultado inevitable de una tasa de progreso exponencial específica.

El razonamiento de Kurzweil se basa en la Ley de Retornos Acelerados y sus hermanos, pero estas no son leyes físicas. Son afirmaciones sobre cómo las tasas pasadas de progreso científico y técnico pueden predecir la tasa futura. Por lo tanto, al igual que otros intentos de predecir el futuro desde el pasado, estas leyes funcionarán hasta que no funcionen. Más problemático para la singularidad, este tipo de extrapolaciones derivan gran parte de su forma exponencial general al suponer que habrá un suministro constante de capacidades informáticas cada vez más potentes. Para que la Ley se aplique y la singularidad ocurra alrededor de 2045, los avances en la capacidad tienen que ocurrir no solo en las tecnologías de hardware de una computadora (memoria, potencia de procesamiento, velocidad del bus, etc.) sino también en el software que creamos para ejecutar en estos. computadoras más capaces. Para lograr la singularidad, no basta con ejecutar el software actual más rápido. También necesitaríamos crear programas de software más inteligentes y capaces. La creación de este tipo de software avanzado requiere una comprensión científica previa de los fundamentos de la cognición humana, y solo estamos raspando la superficie de esto.

Esta necesidad previa de comprender la ciencia básica de la cognición es donde la singularidad está cerca de los argumentos que no logran persuadirnos. Es cierto que la tecnología de hardware de computadoras puede desarrollarse sorprendentemente rápido una vez que tengamos un marco científico sólido y los incentivos económicos adecuados. Sin embargo, la creación del software para una inteligencia informática de nivel de singularidad real requerirá un progreso científico fundamental más allá de donde nos encontramos hoy. Este tipo de progreso es muy diferente a la evolución al estilo de la Ley de Moore de las capacidades de hardware de computadora que inspiraron a Kurzweil y Vinge. Construir el software complejo que permitiría que ocurra la singularidad requiere que primero tengamos una comprensión científica detallada de cómo funciona el cerebro humano que podamos usar como guía arquitectónica, o crearlo todo. de nuevo . Esto significa no solo conocer la estructura física del cerebro, sino también cómo reacciona y cambia el cerebro, y cómo miles de millones de interacciones neuronales paralelas pueden dar como resultado la conciencia humana y el pensamiento original. Obtener este tipo de comprensión integral del cerebro no es imposible. Sin embargo, si la singularidad va a ocurrir en algo parecido a la línea de tiempo de Kurzweil, entonces necesitamos absolutamente una aceleración masiva de nuestro progreso científico para comprender cada faceta del cerebro humano.

Pero la historia nos dice que el proceso del descubrimiento científico original simplemente no se comporta de esta manera, especialmente en áreas complejas como la neurociencia, la fusión nuclear o la investigación del cáncer. El progreso científico general en la comprensión del cerebro rara vez se asemeja a una marcha ordenada e inexorable hacia la verdad, y mucho menos a una marcha exponencialmente acelerada. En cambio, los avances científicos son a menudo irregulares, con destellos impredecibles de conocimiento que puntúan el lento trabajo de laboratorio de crear y probar teorías que pueden encajar con observaciones experimentales. Los avances conceptuales verdaderamente significativos no llegan cuando se predijeron, y cada cierto tiempo nuevos paradigmas científicos se extienden por el campo y hacen que los científicos revalúen partes de lo que pensaban que habían resuelto. Vemos esto en la neurociencia con el descubrimiento de la potenciación a largo plazo, la organización columnar de las áreas corticales y la neuroplasticidad. Este tipo de cambios fundamentales no respaldan la aceleración general al estilo de la Ley de Moore necesaria para llegar a la singularidad en la agenda de Kurzweil.

El freno de la complejidad

Lo anterior apunta a una cuestión básica con respecto a la rapidez con la que se puede desarrollar una descripción científicamente adecuada de la inteligencia humana. A este problema lo llamamos el freno de complejidad . A medida que profundizamos cada vez más en nuestra comprensión de los sistemas naturales, por lo general encontramos que requerimos un conocimiento cada vez más especializado para caracterizarlos, y nos vemos obligados a expandir continuamente nuestras teorías científicas en formas cada vez más complejas. Comprender los mecanismos detallados de la cognición humana es una tarea que está sujeta a este freno de complejidad. Solo piense en lo que se requiere para comprender a fondo el cerebro humano a un nivel micro. La complejidad del cerebro es simplemente asombrosa. Cada estructura ha sido moldeada con precisión por millones de años de evolución para hacer algo en particular, sea lo que sea. No es como una computadora, con miles de millones de transistores idénticos en matrices de memoria regulares que están controladas por una CPU con algunos elementos diferentes. En el cerebro, cada estructura individual y circuito neuronal ha sido refinado individualmente por factores evolutivos y ambientales. Cuanto más de cerca miramos el cerebro, mayor es el grado de variación neuronal que encontramos. Comprender la estructura neuronal del cerebro humano se vuelve más difícil a medida que aprendemos más. Dicho de otra manera, cuanto más aprendemos, más nos damos cuenta de que hay que saber y más tenemos que volver atrás y revisar nuestros entendimientos anteriores. Creemos que algún día terminará este aumento constante de la complejidad; después de todo, el cerebro es un conjunto finito de neuronas y funciona de acuerdo con principios físicos. Pero en el futuro previsible, es el freno de la complejidad y la llegada de nuevas y poderosas teorías, más que la Ley de los Retornos Acelerados, lo que regirá el ritmo del progreso científico requerido para lograr la singularidad.

Entonces, aunque creemos que una comprensión detallada de la estructura neuronal del cerebro es finalmente alcanzable, no ha demostrado ser el tipo de área en la que podemos lograr un progreso acelerado exponencialmente. Pero supongamos que los científicos logran un nuevo y brillante avance en la tecnología de escaneo cerebral. Los defensores de la singularidad a menudo afirman que podemos lograr inteligencia informática simplemente simulando numéricamente el cerebro de abajo hacia arriba a partir de una imagen detallada a nivel neuronal. Por ejemplo, Kurzweil predice el desarrollo de escáneres cerebrales no destructivos que nos permitirán tomar una instantánea precisa del cerebro vivo de una persona a nivel de subneuronas. Él sugiere que estos escáneres probablemente operarían desde el interior del cerebro a través de millones de nanobots médicos inyectables. Pero, independientemente de si el escaneo basado en nanobot tiene éxito (y ni siquiera estamos cerca de saber si esto es posible), Kurzweil esencialmente argumenta que este es el avance científico necesario que cerrará la singularidad: las computadoras podrían exhibir inteligencia a nivel humano simplemente cargando el estado y la conectividad de cada una de las neuronas del cerebro dentro de un simulador cerebral digital masivo, conectando entradas y salidas, y presionando inicio.

Sin embargo, la dificultad de construir software a nivel humano va más allá de modelar computacionalmente las conexiones estructurales y la biología de cada una de nuestras neuronas. Las estrategias de duplicación del cerebro como estas presuponen que no hay un problema fundamental para llegar a la cognición humana más que tener suficiente poder de computadora y mapas de estructura de neuronas para hacer la simulación. [2] Si bien esto puede ser cierto en teoría, no ha funcionado de esa manera en la práctica, porque no aborda todo lo que realmente se necesita para construir el software. Por ejemplo, si quisiéramos crear un software para simular la capacidad de un pájaro para volar en diversas condiciones, no basta con tener un diagrama completo de la anatomía del ave. Para simular completamente el vuelo de un pájaro real, también necesitamos saber cómo funciona todo en conjunto. En neurociencia, hay una situación paralela. Se han realizado cientos de intentos (utilizando muchos organismos diferentes) para encadenar simulaciones de diferentes neuronas junto con su entorno químico. El resultado uniforme de estos intentos es que para crear una simulación adecuada de la actividad neuronal real en curso de un organismo, también se necesita una gran cantidad de conocimientos sobre la funcional El papel que juegan estas neuronas, cómo evolucionan sus patrones de conexión, cómo se estructuran en grupos para convertir los estímulos en bruto en información y cómo el procesamiento de la información neuronal afecta en última instancia el comportamiento de un organismo. Sin esta información, ha resultado imposible construir modelos de simulación por computadora efectivos. Especialmente para la neurociencia cognitiva de los humanos, no estamos cerca del nivel requerido de conocimiento funcional. Cerebro proyectos de simulación en la actualidad modelan solo una pequeña fracción de lo que hacen las neuronas y carecen del detalle para simular completamente lo que ocurre en un cerebro. El ritmo de la investigación en esta área, aunque alentador, difícilmente parece exponencial. Una vez más, a medida que aprendemos más y más sobre la complejidad real de cómo funciona el cerebro, lo principal que encontramos es que el problema en realidad se está volviendo más difícil.

El enfoque de la IA

Los defensores de la singularidad ocasionalmente apelan a los desarrollos en inteligencia artificial (IA) como una forma de sortear la lenta tasa de progreso científico general en enfoques de cognición de abajo hacia arriba basados ​​en neurociencias. Es cierto que la IA ha tenido grandes éxitos en la duplicación de ciertas tareas cognitivas aisladas, más recientemente con El sistema Watson de IBM por ¡Peligro! respuesta a la pregunta. Pero cuando damos un paso atrás, podemos ver que las capacidades generales basadas en IA tampoco han aumentado exponencialmente, al menos cuando se comparan con la creación de una inteligencia humana completamente general. Si bien hemos aprendido mucho sobre cómo construir sistemas de IA individuales que hacen cosas aparentemente inteligentes, nuestros sistemas siempre se han mantenido frágil —Sus límites de desempeño están rígidamente establecidos por sus supuestos internos y algoritmos de definición, no pueden generalizar y, con frecuencia, dan respuestas sin sentido fuera de sus áreas de enfoque específicas. Un programa de computadora que juega un excelente ajedrez no puede aprovechar su habilidad para jugar a otros juegos. Los mejores programas de diagnóstico médico contienen un conocimiento inmensamente detallado del cuerpo humano, pero no pueden deducir que un equilibrista tendría un gran sentido del equilibrio.

¿Por qué ha resultado tan difícil para los investigadores de IA desarrollar inteligencia similar a la humana, incluso a pequeña escala? Una respuesta involucra el marco científico básico que utilizan los investigadores de IA. A medida que los humanos crecen desde bebés hasta adultos, comienzan adquiriendo un conocimiento general sobre el mundo y luego aumentan y refinan continuamente este conocimiento general con conocimientos específicos sobre diferentes áreas y contextos. Los investigadores de IA normalmente han intentado hacer lo contrario: han construido sistemas con un conocimiento profundo de áreas estrechas y han tratado de crear una capacidad más general combinando estos sistemas. En general, esta estrategia no ha tenido éxito, aunque el desempeño de Watson en ¡Peligro! indica que caminos como este aún pueden ser prometedores. Los pocos intentos que se han hecho para crear directamente una gran cantidad de conocimiento general del mundo, y luego agregar el conocimiento especializado de un dominio (por ejemplo, el trabajo de Cycorp ), también han tenido un éxito limitado. Y, en cualquier caso, los investigadores de inteligencia artificial apenas están comenzando a teorizar sobre cómo modelar de manera efectiva los fenómenos complejos que dan a la cognición humana su flexibilidad única: incertidumbre, sensibilidad contextual, reglas generales, autorreflexión y destellos de conocimiento que son esenciales. al pensamiento de nivel superior. Al igual que en la neurociencia, la ruta basada en la inteligencia artificial para lograr la inteligencia informática a nivel de singularidad parece requerir muchos más descubrimientos, algunas nuevas teorías de calidad Nobel y probablemente incluso enfoques de investigación completamente nuevos que son inconmensurables con lo que creemos ahora. Este tipo de progreso científico básico no ocurre en una curva de crecimiento exponencial confiable. Entonces, aunque los desarrollos en IA podrían terminar siendo el camino hacia la singularidad, nuevamente el freno de la complejidad ralentiza nuestro ritmo de progreso y empuja la singularidad considerablemente hacia el futuro.

La asombrosa complejidad de la cognición humana debería servir como advertencia para aquellos que afirman que la singularidad está cerca. Sin tener una comprensión científicamente profunda de la cognición, no podemos crear el software que podría generar la singularidad. En lugar del avance cada vez más acelerado predicho por Kurzweil, creemos que el progreso hacia esta comprensión se ve frenado fundamentalmente por el freno de la complejidad. Nuestra capacidad para lograr esta comprensión, ya sea a través de los enfoques de la inteligencia artificial o la neurociencia, es en sí misma un acto cognitivo humano, que surge de la naturaleza impredecible del ingenio y el descubrimiento humanos. El progreso aquí se ve profundamente afectado por las formas en que nuestros cerebros absorben y procesan nueva información, y por la creatividad de los investigadores para idear nuevas teorías. También se rige por la forma en que organizamos socialmente el trabajo de investigación en estos campos y difundimos el conocimiento resultante. En Vulcano y en el Instituto Allen de Ciencias del Cerebro , estamos trabajando en herramientas avanzadas para ayudar a los investigadores a lidiar con esta enorme complejidad y acelerar su investigación. Obtener una comprensión científica integral de la cognición humana es uno de los problemas más difíciles que existen. Seguimos logrando avances alentadores. Pero creemos que a finales de siglo todavía nos estaremos preguntando si la singularidad está cerca.

Paul G. Allen, cofundador de Microsoft en 1975, es filántropo y presidente de Vulcan, que invierte en una variedad de negocios de tecnología, aeroespacial, entretenimiento y deportes. Mark Greaves es un científico informático que se desempeña como director de sistemas de conocimiento de Vulcan.

[1] Kurzweil, La ley de los retornos acelerados, marzo de 2001.

[2] Estamos empezando a ponernos dentro del alcance de la potencia de la computadora que podríamos necesitar para soportar este tipo de simulación cerebral masiva. Computadoras clase Petaflop (como BlueGene / P de IBM que se utilizó en el sistema Watson) ahora están disponibles comercialmente. Las computadoras de la clase Exaflop se encuentran actualmente en la mesa de dibujo. Estos sistemas probablemente podrían desplegar la capacidad computacional en bruto necesaria para simular los patrones de activación de todas las neuronas del cerebro, aunque actualmente ocurre muchas veces más lentamente de lo que sucedería en un cerebro real.

ACTUALIZACIÓN: Ray Kurzweil responde aquí.

esconder