¿Puedes predecir aproximadamente el tiempo de creación de la IA?

Eso es muy dificil

¿Recuerdas a todos aquellos que se atrevieron a predecir el futuro? Se te asignará un boletín de anuncios de humillación el año que predicaste.

Dicho esto, si tengo que hacer una suposición descabellada, podemos alcanzar la singularidad (AI, en conjunto, alcanzar el nivel de inteligencia que se encuentra en y luego superar la inteligencia colectiva humana) en 10-20 años. Sé que suena agresivo y se demostró que muchas predicciones valiosas eran demasiado optimistas.

Hay 3 cosas que están sucediendo que lo hacen más cercano que las predicciones previas 1) Aprendizaje profundo: la predicción previa de la IA se basó en la “programación de procesos”, aunque parecía una opción viable, se comprobó que la cantidad de programación necesaria para lograr la IA tiene un efecto degradante. curva (cuanto más complejo es resolver, más tiempo se tarda en programar). Ese enfoque no pudo lograr el “desarrollo acelerado de la IA como se predijo) Con un aprendizaje profundo, aunque no es perfecto, ahora es muy práctico dejar que la máquina” aprenda “cosas por su cuenta (como AlphaGO venció a Lee) que eliminó el cuello de botella anterior (programación de complejos lógica como el azul profundo que venció a Kasparov en 1997)

2) “degeneración” de la inteligencia humana: la sociedad moderna se ha convertido en una enorme disparidad de capacidad e interés en la inteligencia. Aunque la física de Newtown es probablemente comprensible para la mayoría de las personas que se molestaron en tratar de entenderla, la relatividad es algo que la mayoría de los doctores en estos días ni siquiera entienden completamente. El avance de nuestro conocimiento intelectual es tan especializado que las personas necesitan depender la una de la otra para un mayor avance intelectual. El problema es que muchos de nosotros realmente no podremos contribuir intelectualmente a nuestra base de conocimiento colectivo. Y cada vez más gente ni siquiera lo intenta. El incentivo para el trabajo altamente intelectual también es mínimo: las personas se sienten atraídas por la política y los negocios, ambos son por la redistribución de recursos (quitarle el poder / la libertad a las personas para administrarlos; quitarles dinero a las personas para sus “necesidades”). Así que, en general, la mayoría de las personas ya no están interesadas en desarrollar más su capacidad intelectual. Y de una generación a otra, nuestra inteligencia promedio está retrocediendo. Solo pregunte por nuestros padres sobre sus habilidades de navegación y compárelas con las nuestras cuando el GPS no está disponible.

3) el desafortunado hecho de que la singularidad va a ayudar a los súper poderosos y dejará al resto de nosotros aún más indefensos es un incentivo muy peligroso para que los políticos y los gobiernos “aceleren de manera controlable” el desarrollo de los mismos: cuanto más poder intelectual obtiene la AI, más La disparidad de inteligencia entre la super elite y el resto de nosotros. Si bien no corresponde al interés de las personas promedio alcanzar la singularidad, es (al menos en el corto plazo) beneficiar a la súper elite el tener ese nivel de “herramienta” que es súper inteligente.

Dada la tecnología, la pérdida de interés del ser humano en la academia y el incentivo para que muy pocas élites lo hagan, es probable que lo tengan singularmente en 10-20 años.