Veo que AI se inspira más en la neurociencia en el futuro. Las redes neuronales clásicas pueden aproximarse a funciones complejas, pero tienen limitaciones y casi la única similitud que comparten con el cerebro es que están formadas por neuronas (o, al menos, unidades artificiales que actúan como neuronas). Tratar de imitar la inteligencia del cerebro simplemente juntando un montón de neuronas artificiales no es suficiente. Es como tratar de construir una computadora al armar muchos transistores al azar. Los conceptos como la integridad de Turing y los conceptos de la arquitectura de Von Neumann, como la memoria, la unidad de control, la unidad de lógica aritmética, los mecanismos de entrada y salida, son aún más importantes para entender y construir computadoras modernas que saber que están hechas de transistores. De la misma manera, hay más sobre el cerebro que solo decir que está hecho de neuronas; es solo que todavía no sabemos mucho, pero es de esperar que esto cambie en el futuro.
Ha habido algún progreso en las redes neuronales artificiales con un aprendizaje profundo, que ha logrado resultados de vanguardia en las tareas de clasificación. Por ejemplo, los enfoques de aprendizaje profundo para el reconocimiento visual hacen uso de redes neuronales convolucionales, que tienen en cuenta los conceptos de jerarquías de características y campos receptivos, características que conocemos del trabajo de Hubel y Wiesel sobre la corteza visual del gato. Al incluir estas características en una red neuronal, podemos evitar el sobreajuste hasta cierto punto y obtener buenos resultados. Creo que vamos a ver resultados aún mejores en la IA teniendo en cuenta los nuevos descubrimientos de la neurociencia que aún están por venir.