¿Puede una máquina construida por humanos ser más inteligente que los humanos? ¿Pueden comprender niveles de intelecto superiores a los que poseen ellos mismos?

Depende de cómo se mida la inteligencia. Si te refieres a la prueba de Turing, entonces lo mejor que podría hacer una computadora es la inteligencia humana igual al ser indistinguible de un humano. Si te refieres a la capacidad de resolver problemas o hacer un trabajo útil más rápido y mejor que los humanos, las computadoras ya lo han estado haciendo desde la década de 1950

Por supuesto, hay una serie de problemas cada vez más pequeños en los que los humanos aún superan a las máquinas. El problema es que nos gusta medir la inteligencia exclusivamente de este conjunto para que los humanos salgan ganando. En un momento, consideramos la capacidad de resolver problemas de matemáticas o jugar al ajedrez como signos de inteligencia. Eso cambió cuando las computadoras comenzaron a hacer estas cosas mejor. Entonces se convirtió en sólo un algoritmo. Nos gusta sesgar nuestras pruebas de coeficiente intelectual hacia los humanos. Si desea ver qué aspecto tiene el sesgo de una máquina, pruebe esta prueba de CI.

Dicho esto, todavía estamos gastando USD $ 75 billones por año en todo el mundo para pagar a las personas para que realicen trabajos que las máquinas no son lo suficientemente inteligentes como para hacer. Uno podría reformular la pregunta para preguntar cuándo las máquinas podrán hacer todo este trabajo en su lugar. El hecho es que las máquinas ya están haciendo la mayor parte de este trabajo para nuestro beneficio. Simplemente al tener acceso a computadoras e Internet, su ingreso es mucho más alto de lo que sería de otra manera. Si quiere preguntar cuándo las máquinas nos dejarán sin trabajo, eso no es lo que está sucediendo. Lo que sucede en cambio es que nuestro salario y la calidad del trabajo están mejorando a medida que las máquinas nos hacen más productivos.

Sin una buena definición de “inteligencia a nivel humano”, es difícil responder a la pregunta. Pero quizás podamos responder a la pregunta relacionada: ¿cuándo la potencia de computación del mundo excederá la potencia combinada de todos los cerebros humanos? (Estamos ignorando el tiempo necesario para desarrollar el software y recopilar y aplicar los datos de entrenamiento para hacer que la IA funcione).

Los mejores algoritmos conocidos para la visión y el lenguaje se basan en redes neuronales. Una red neuronal del tamaño de un cerebro humano con 10 ^ 14 sinapsis y con tiempos de respuesta de 10 a 100 ms requeriría 10 ^ 15 a 10 ^ 16 operaciones por segundo (1 a 10 petaflops). Al multiplicar por la población mundial de 7 mil millones, necesitaríamos 10 ^ 25 a 10 ^ 26 OPS. Actualmente, la capacidad de computación del mundo es de varios miles de millones de computadoras capaces de realizar 10 ^ 9 a 10 ^ 10 operaciones por segundo, o aproximadamente 10 ^ 19 OPS. Si asumimos que la Ley de Moore continúa aumentando la potencia informática mundial en un factor de 10 cada 5 años (como lo ha hecho desde la década de 1950), podemos esperar superar la potencia informática del nivel humano entre 2045 y 2050. Ray Kurzweil ha logrado resultados similares. proyecciones

Debo señalar que no se garantiza que la Ley de Moore continúe. Las velocidades de reloj de las computadoras dejaron de aumentar hace varios años. Además, no es posible hacer componentes más pequeños que los átomos, y los tamaños de los transistores están ahora cerca de este límite. Si no podemos reducir aún más los transistores, no podemos reducir su consumo de energía. Actualmente, una supercomputadora petaflop de 1 a 10 necesita aproximadamente 1 megavatio de electricidad. Siete mil millones de estos requerirían 7000 teravatios de electricidad, lo que excedería la producción mundial de energía de todas las fuentes en un factor de aproximadamente 200.

Inteligencia e incluso Conciencia NO tiene que ser implementado por un programador humano. Se formará a sí mismo , tal como surgió de forma espontánea en humanos hace millones de años.

A primera vista se parece al dilema de causalidad de la gallina o el huevo. Como no hay nadie que verdaderamente entienda la inteligencia humana, nadie puede crear una inteligencia superior. La biología evolutiva proporciona respuestas literales con el principio darwiniano . Las especies evolucionan con el tiempo y, por lo tanto, los pollos tenían ancestros que no eran pollos: las máquinas inteligentes tendrán ancestros que no eran inteligentes o no entendían completamente qué es la inteligencia .

Y ha ocurrido antes: aquí estamos, los humanos inteligentes evolucionaron a partir de materia cósmica poco inteligente.

No hay razón para creer que la evolución darwiniana se limite al reino biológico . El código modificable es todo lo que se necesita, ya sea en silicio o en materia biológica. La evolución será mucho más rápida en el código auto alterado con miles de millones de operaciones por segundo que en las mutaciones o progenies genéticas espontáneas que ocurren solo una vez cada 30 años entre generaciones humanas. Stephen Hawking advirtió que “los humanos, que están limitados por la lenta evolución biológica, no podrían competir y serían reemplazados”.

Velocidad del supercomputador (escala logarítmica) vs. IQ humano

En 75 años, la velocidad de las supercomputadoras ha aumentado en 16 órdenes de magnitud , mientras que el coeficiente intelectual humano se ha estancado e incluso ha disminuido ligeramente.

Al ver esos gráficos, cualquier persona que no crea que el avance tecnológico se detendrá repentinamente, debe reconocer que es solo cuestión de tiempo hasta que las capacidades humanas encuentren su coincidencia .

El aprendiz de brujo: ¿Es la IA una amenaza existencial para la humanidad?

Gracias por A2A

Hmmm, me he estado preguntando esto por un tiempo.

En primer lugar, no tengo confianza en que una computadora lo haga. Creo que tiene que ser un robot, algo que se mueve e interactúa con el mundo. Esta movilidad es clave para algún tipo de sentido de la visión del mundo.

La mecánica está avanzando bien, gracias al progreso de las extremidades artificiales.

La energía de la batería, gracias a los coches híbridos y eléctricos, también está avanzando con bastante rapidez.

No creo que el robot necesite todo el procesamiento incorporado, dados los avances continuos en las velocidades inalámbricas. Hice los cálculos una vez basados ​​en las velocidades del nervio óptico, y si se entendiera claramente el algoritmo sensorial, ya tenemos las velocidades wifi y 4G necesarias para la sensación de nivel humano en vivo, de modo que si coloca los servidores en puntos centrales en un área hexagonal de 500 millas Las rejillas de radio podrían centralizar la mayor parte de la potencia de procesamiento de una manera similar a la forma en que Siri usa la red para responder a la voz ahora, excepto que en lugar de un sonido bidireccional a la voz, sería un sonido envolvente bidireccional. Orama a las respuestas mecánicas.

Creo que los factores limitantes son la potencia de la batería y la capacidad del software. Y ambos me miran como si estuvieran al día en 10 años.

Tenga en cuenta que el radio de 500 millas es asegurar que los tiempos de respuesta sean lo suficientemente rápidos como para que coincidan con los reflejos inteligentes humanos en aproximadamente 1 / 2oth de segundo y para proporcionar la redundancia necesaria.

Espero que las velocidades reflejas sin sentido humano de 1/50 de segundo deban manejarse en el propio robot.

No estoy en ningún grupo de expertos trabajando en esto, por lo que no son suposiciones altamente educadas.

En lo que estoy basándolos es en mi entendimiento de que el cerebro humano está manejando de 2 a 5 megabytes de rendimiento entre los ojos y la médula espinal, y el cerebro tiene aproximadamente 86 mil millones de neuronas.

Creo que cada neurona puede representarse virtualmente como una pila de ponderaciones de entrada y ponderaciones de salida, cada una de las cuales no tiene más de 64 bits de tamaño, o 8 bytes. Y espero que cada neurona tenga un promedio de aproximadamente 125 de estas por neurona, con variantes amplias para que la mayoría tenga solo alrededor de 50, y unas pocas tengan más de 1.000. Así que esto hace que la simulación no requiera más de 86 terabytes de RAM.

Sin embargo, de esos 86 terabytes, espero que 70 terabytes, el cerebro viejo más bajo que el Cerebrum, tenga suficiente redundancia para que pueda reducirse a la mitad, por lo que los requisitos finales son de unos 50 terabytes.

Ahora, eso es alrededor de mil veces más de lo que muchos de nuestros teléfonos celulares están enviando hoy a un costo único de menos de $ 1,000. Creo que para esta aplicación podremos tomar un costo de $ 20,000 para que estos humanos de reemplazo realicen trabajos, por lo que creo que solo necesitamos ver un aumento de 50 veces en el precio / rendimiento de donde estamos hoy. Y ahí es donde esperaríamos estar en 12 años.

Pero los sistemas de adopción temprana probablemente comenzarán a estar listos en unos 10 años.

Mucha gente habla como si no fuera posible porque creo que piensan que necesitamos tener más en la simulación de dendritas de lo que creo que realmente necesitamos. Espero usar solo 40 bits para direccionamiento de dendritas y 24 bits para la ponderación +, que 64 bits por sinapsis harán el trabajo muy bien.

Desde mi perspectiva, los humanos no somos realmente tan inteligentes. Creo que nuestra mayor ventaja no es nuestro intelecto, sino nuestra eficiencia. Si las computadoras tuvieran menos requisitos de energía, creo que ahora podríamos construir estos robots. Los robots Boston Dynamic lucen bastante impresionantes siempre y cuando no retrocedas y veas la batería siguiéndolos por separado.

Creo que serán comercialmente viables (robots en cada hogar y negocio) en aproximadamente 16 años.

Sin embargo, no parpadees. Podría suceder mucho antes.

Mi tesis fue sobre este tema. Mi formación académica es en inteligencia artificial, filosofía y economía. Desarrollé un meta-marco para responder preguntas como estas. También se puede utilizar para consultar a todos los interesados ​​tecnológicos, incluidas las empresas, los usuarios y el gobierno.

¿Qué forma de verdad deberíamos usar para construir nuestra definición de ‘inteligencia’?

En resumen, depende de cómo se defina la inteligencia. Muchas de las respuestas de las personas aquí van sobre diferentes definiciones de la palabra. Por lo tanto, no puede llegar a una respuesta significativa a esta pregunta. Pero por el bien del entretenimiento, vamos a elegir un significado.

Podría profundizar en una definición coherente, pragmática o científica de la palabra inteligencia , pero esta respuesta se basará en una definición consensual. ¿En qué estamos de acuerdo intuitivamente que la inteligencia es realmente?

¿Cuál es la definición consensual de inteligencia en el contexto de la IA?

Algunos confunden (en mi opinión) lo que entendemos consensualmente como inteligencia, como la reproducción del modo de inteligencia de los seres humanos. Con todos sus defectos y beneficios, incluido un gran grado de sensibilidad. Este es un extremo.

Algunos, por otro lado, confunden (en mi opinión) lo que entendemos por consenso como inteligencia, como poder de procesamiento mental. Ya sea por nuestra capacidad de memorizar o completar una operación determinada. Este es otro extremo.

Desde mi punto de vista, la inteligencia, como parece significar la sociedad en la actualidad, es la capacidad de maximizar la opcionalidad y la adaptación. Es la capacidad de una entidad para expresar agencia, es decir, una independencia de factores ambientales exógenos. En esencia, es una buena mezcla de lo que describo como los dos extremos de la inteligencia. Por buena mezcla, no me refiero a un equilibrio perfecto, me refiero a una ‘buena combinación contextual’.

¿Cómo vamos a saber si una máquina es más inteligente que los humanos?

¿Puede una PC con Windows 1995 tener esa mezcla? No, no tiene sensibilidad. ¿Puede algo que tiene Strong AI hacer eso? Tal vez, pero solo si necesita un mantenimiento limitado.

Si alguna vez construimos máquinas inteligentes, pensaremos que estas máquinas son nuestros “esclavos” hasta que nos demos cuenta de que es todo lo contrario. Usted mencionó ‘¿podemos comprender los niveles de intelecto más poderosos que nosotros’? No creo que, como sociedad de masas, realmente podamos. Ya lo estamos viendo en Internet, y con varios artefactos tecnológicos como Facebook o Google.

Si el intelecto de una máquina es mucho mayor que el intelecto del ser humano más inteligente vivo, supongamos que podríamos estar de acuerdo en una definición de intelecto. Entonces, esa máquina o bien 1) no señalaría su intelecto y, por lo tanto, se conocerá como inteligente, aunque sería indispensable (el método suave) o 2) señalará su intelecto y subvertirá a la humanidad para que esencialmente la necesite o la adore (el método difícil). Recuerde que (1) y (2) se basan en nuestra definición consensual de inteligencia, por lo que esta es solo una forma predeterminada de ver el resultado, implícita en nuestra definición.

Entonces, de esta manera, cualquier máquina con la que todos estemos de acuerdo es inteligente, tendrá que subvertir a los seres humanos como segundos en importancia para ellos, o quizás se conviertan en una forma de ‘Dios’ como ahora adoramos al dinero, digamos. Antes de eso, nunca estaremos de acuerdo, es inteligente. Y nuestro acuerdo no vendrá como una revelación repentina. Se “desvanecerá” y nos alcanzará cuando menos lo esperemos. Al igual que en 2007, cuando los CDO se derrumbaron.

Entonces, en ese sentido, la inteligencia no es el altruismo de la máquina, su sensibilidad o su capacidad de procesamiento o conexión. Siempre habrá opiniones despectivas sobre si la máquina es de hecho inteligente.

¿Habrá alguna vez una máquina más inteligente que los humanos?

Entonces, en mi opinión, es posible construir una máquina más inteligente que los humanos. Pero para cuando todos estemos de acuerdo en qué inteligencia será demasiado tarde. ¿Alguna vez construiremos uno? No estoy seguro. ¿Es posible? Sí.

Pero la pregunta que haces es un poco infructuosa. Al tratar de ‘buscar inteligencia’, probablemente no la encontremos. Esto se debe a (1) y (2) arriba. Pero respondiendo a esta pregunta no como una “verdad” real, sino como una “estimación”, creo que podemos construir las condiciones para prevenir (1) y (2). Esto dependerá de una forma de fe.

como podemos prevenir esto?

Antes de que alguna forma de monopolio se nos acerque, necesitamos máquinas para competir y también necesitamos democratizar su uso. Si ninguna máquina tiene un monopolio sobre la IA, ninguna máquina puede obtener suficiente poder para afectar a la humanidad, porque en última instancia, tendremos otra opción. Ninguna máquina puede volverse indispensable y, por lo tanto, subvertir a la humanidad. Pero por “máquina” no me refiero a algún pedazo de metal o servidor subterráneo en alguna parte. Me refiero a algo como el protocolo HTTP, o Internet. Cualquier artefacto tecnológico específico. Recuerde, basado en nuestra definición de inteligencia anterior, Internet se está convirtiendo en esta “cosa inteligente” es completamente posible.

Competitividad en todos los meta-niveles.

En mi opinión, es un poco paradójico que algunas de las religiones más grandes que hayan barrido el planeta postulen que Dios o los dioses crearon el mundo. Tal vez eso sucedió, tal vez no fue así. Quién sabe realmente. Pero podemos muy bien crear nuestro propio Dios. Nuestro propio objetivo auto-unificador. Por favor ve esto como una analogía entretenida. Pero entretenámoslo más.

Solo espero que el ‘Dios’ que creamos sea algo infinito (alguna forma de esfuerzo humano), no finito (alguna forma de máquina). Por lo tanto, en base a este principio, espero que tengamos ‘Dioses’ compitiendo en forma de máquinas, como una analogía. No necesariamente tenemos que controlar estos “dioses”, pero siempre es necesario que haya alternativas. Nuestro ‘Dios’ en última instancia tiene que ser algo imaginario, algo de esfuerzo e imaginación, algo que nos unifique como especie, en lugar de tangible como máquina. Debe ser infinito. Ya sea la idea de unidad, felicidad, esfuerzo científico o exploración del universo.

Sin embargo, existe el riesgo de que si construimos la competitividad en nuestro ecosistema tecnológico, esa competitividad o economía tendrá que basarse en una “constante” que simplemente se incrustará más en nuestro tejido social. Y esa ‘constante’ se convertirá en lo inteligente. Es importante que esta constante no tenga IA, o intentamos lograr otras constantes para competir con ella. Un ejemplo es la competencia que veremos entre HTTP y IPFS.

Entonces, en conclusión: ¿podemos construir máquinas más inteligentes que nosotros, como se define por consenso? Sí. ¿Querríamos? No. ¿Podemos prevenir esto? Tal vez, pero también podemos intentarlo, construyendo la competitividad, democratizando y haciendo otra forma de ideal, el esfuerzo auto-unificador de la humanidad.

Nota: Necesito resaltar que esta pregunta tiene una respuesta altamente condicional y, en base a las condiciones establecidas, es simplemente mi punto de vista en este momento.

Mi respuesta es no. Aquí están mis pensamientos copiados de: ¿Por qué no ocurrirá la IA?

——————————————————————————————

Tengo una hija de tres años y medio. Mi esposa solía preocuparse por que ella hablara cuando estaba alrededor de 15 meses después de que notara que había un par de bebés que podían hablar en esa fase. Pero solo unos meses después, mi esposa y yo comenzamos a preguntarnos por qué mi hija tiene tantas cosas / preguntas para hablar / preguntar. Ella sigue hablando todo el día, excepto que está durmiendo o jugando sola. Cuando tenía unos dos años, comenzamos a leerle un libro de bebés. Ella es bastante agradable y concienzuda cuando la abrazamos. Hoy, ella comenzó a sorprenderme y me hizo muchas preguntas: “Papá, por qué está triste”, “No, él no está, por qué (cómo) sabes que está triste”, “Papá, él está triste”, Solo pude notar que el chico está triste por su cara lateral en la imagen después de leer el texto, y me sorprendió que ella pudiera sentir muchas cosas con sensibilidad y rectitud. Ella tiene tantos ‘por qué’ / ‘cómo’ / qué … probablemente solo puedo responder menos del 20% de sus preguntas, y más de la mitad de sus preguntas que nunca pensé o alguien más me ha preguntado. Puedes pensar que ella podría ser una genio. La respuesta es no, ella es simplemente una niña normal, una de las más tuyas o la que has conocido. ella no sabe cómo calcular 5 más 5, o reconocer 26 alfabetos. Por otro lado, sí, ella es una genio para mí, creo y creo que es más inteligente que cualquier otra máquina que haya hecho el ser humano, incluido IBM Deep Blue, aunque es imposible para ella vencer a Garry Kasparov. La razón no es porque ella es mi hija o cómo la amo. Se trata de sentimiento, imaginación y amor …, de donde viene la inteligencia.

Por la definición de inteligencia de Wikipedia:

Una capacidad mental muy general que, entre otras cosas, involucra la capacidad de razonar, planear, resolver problemas, pensar de manera abstracta, comprender ideas complejas, aprender rápidamente y aprender de la experiencia. No se trata simplemente del aprendizaje de libros, una habilidad académica limitada o inteligencia para tomar exámenes. Más bien, refleja una capacidad más amplia y más profunda para comprender nuestro entorno: “ponerse al día”, “darle sentido” a las cosas o “averiguar” qué hacer

Personalmente no vi ninguna máquina que tuviera alguna ‘capacidad’ para aprender. En lugar de decir que las máquinas están aprendiendo, prefiero decir que eres tú, que los programadores están aprendiendo. De acuerdo con los avances que hemos logrado en la prueba de Turing. Dudo que la IA sea solo otro ‘movimiento perpetuo’. Incluso algún día sucede, definitivamente no está construido en Intel Core / Linux OS o ocurre en los últimos 20 años.

a2a. Todavía estamos muy lejos de comprender completamente los mecanismos de la inteligencia humana. Aún estamos más lejos de saber cómo replicar esos mecanismos en alguna forma de tecnología. Dicho esto, recientemente se han logrado grandes avances en varios aspectos de los componentes necesarios para que las funciones de orden superior sean posibles.

En mi humilde opinión, veremos avances asombrosos en aplicaciones de inteligencia artificial limitada en los próximos años. Ellos insinuarán cómo construir una inteligencia que supere a los humanos, pero también habrá misterios insolubles. Dentro de los próximos diez años veremos IA muy sorprendentes que superan con creces a los humanos dentro de sus dominios limitados; los autos sin conductor se convertirán en mucho mejores conductores que los humanos, las AI de asesoría financiera serán mejores en la predicción de estrategias de inversión óptimas (sospecho que esto ya ocurrió, pero se mantiene dentro de las grandes firmas de inversión que las crearon) y mucho más. Aquellos campos donde se correlacionan grandes conjuntos complejos de datos históricos tendrán herramientas nuevas y poderosas.

Creo que veremos el día en que una inteligencia diseñada funcione tan ampliamente como los humanos en un nivel superior. 2045 parece un año tan bueno como cualquier otro, ya que en el mejor de los casos es una suposición educada. Creo que el descubrimiento provendrá de partes inesperadas, como una herramienta de modelado de laboratorio de neurociencia cognitiva computacional. Por ejemplo, cuando un equipo que construye algo como Emergent hace un gran avance.

Indudablemente.

(‘UNA’)

Observe la ley de Moore.

Hoy en día, los modelos basados ​​en el cerebro superan a los humanos en las tareas cognitivas, desde la traducción del lenguaje hasta el diagnóstico de la enfermedad.

¿La inteligencia artificial de AI se llevará tu trabajo?

.

.

.

.

(‘SEGUNDO’)

Los modelos basados ​​en el cerebro han ingresado a un mayor número de campos cognitivos, como se mejoró el paralelismo computacional. (particularmente, en el horizonte de la Ley de Moore)

.

.

.

.

(‘DO’)

Allí YA hay modelos que logran 10 ^ 14 operaciones sinápticas por segundo. (Del total estimado de cerebro humano, 1 exaflop o 10 ^ 16 a 10 ^ 18 operaciones sinápticas por segundo)

Por lo tanto, UNO no necesita practicar MECÁNICA CUÁNTICA, de modo que se reconozca la proximidad de la inteligencia artificial cognitiva no trivial.

¿La inteligencia artificial sobrepasará a los seres humanos?

No veo por qué no. Los seres humanos tienen una larga historia de crear máquinas y sistemas para ampliar nuestras habilidades naturales.

  • No somos lo suficientemente fuertes, por lo que hacemos máquinas para levantar pesos pesados.
  • No somos lo suficientemente rápidos, por lo que hacemos máquinas para que nos movamos y cargemos a alta velocidad.
  • Somos incapaces de volar, por lo que hacemos máquinas para volar tanto nosotros como la carga a cualquier lugar que queramos.
  • No podemos nadar largas distancias ni lo suficientemente rápido, así que hacemos máquinas para movernos y cargamos alrededor de los mares y ríos.
  • No podemos dejar el planeta, por lo que fabricamos máquinas que sí pueden, y somos capaces de transportarnos de un lado a otro.
  • No podemos ver objetos demasiado pequeños o demasiado lejos, por lo que creamos máquinas que pueden y nos muestran lo que ven.
  • No podemos detectar muchas formas de energía, por lo que fabricamos máquinas que pueden y nos muestran lo que está sucediendo.
  • Y así sucesivamente, en nauseam …

¿Por qué alguien puede creer que no haremos máquinas que puedan pensar lo que no podemos, o recordar lo que no podemos, o concluir lo que no podemos? O, al menos, lo hará más rápido y con mayor precisión que nosotros para que podamos obtener resultados confiables en días en lugar de en décadas. Después de todo, ya hemos creado máquinas que pueden calcular, mostrar y comunicar información mucho (oh, mucho) más rápido y preciso que nosotros.

De hecho, tú y yo estamos usando una de esas máquinas en este momento. Sin ellos no estaríamos haciendo y respondiendo tales preguntas; no podríamos comunicar las preguntas y obtener las diversas respuestas tan rápido como podemos ahora; y tal vez ni siquiera podríamos pensar de manera coherente y constructiva tales cuestiones …

Teóricamente es posible. Primero piense en una sola computadora que probablemente pueda hacer cosas que el usuario típico no puede, pero los creadores (programadores) tuvieron que programar la computadora para que la computadora solo pueda alcanzar el nivel de inteligencia de los creadores. Ahora piense en muchas computadoras conectadas en red. Con esto, cada computadora en la red será teóricamente más inteligente que su creador debido a la inteligencia colectiva que proviene de otras computadoras en la red. Sin embargo, todas las computadoras fueron creadas por humanos y, como nadie lo sabe todo y la gente sabe cosas diferentes, hace que una red de computadoras sea más inteligente, pero la red no superará la inteligencia de todos los creadores juntos. Así que las computadoras pueden ser más inteligentes que los humanos que las crearon si también tienen otras entradas de otros creadores. Sin embargo, una computadora sola no puede ser más inteligente que sus creadores. Por lo tanto, las computadoras en plural pueden ser más inteligentes que un humano cuando pueden hablar entre sí, pero los humanos también pueden hablar entre sí y, como podemos asociar de manera creativa, las computadoras nunca serán más inteligentes que la raza humana.

Creo que sí.

Una forma de ver la inteligencia es renombrarla como “construcción de conceptos”. Puede extrapolar cosas pequeñas y juntar las piezas para hacer un concepto, y luego juntar esos conceptos para crear conceptos de nivel aún más alto. Como sabe cada persona semiinteligente, los procesos de pensamiento son un poco más complicados que eso, pero es un buen lugar para comenzar.

Entonces, las dos cosas a las que se reduce son recopilar conocimientos y luego juntar dos y dos, o inferir cosas de ese conocimiento (y en realidad, así es como funciona un tipo de AI llamado sistema experto).

Entonces, cuando hablas de recopilar conocimiento, también te encuentras con muchos pequeños problemas bastardos, como la forma de representar ese conocimiento. ¿Cómo recordamos imágenes, imágenes y video? Es difícil decir exactamente cómo debemos hacerlo para una IA, pero la gente está haciendo grandes progresos en el área. Y luego tienes que resolver esto para cada tipo de conocimiento. Esto, por supuesto, puede ser un caso clásico de limitaciones humanas que afectan la forma en que construimos nuestra IA. Hay una manera de remediar esto … a lo que llegaré en un minuto.

Cuando hablas de inferencia, estás hablando de tu lógica central. Bueno, ¿cómo funciona eso? ¿Con qué frecuencia se supone que revisemos nuestro conocimiento y le apliquemos nuestra lógica? Tal vez usted mismo haya tenido este problema: se encuentra con alguna creencia extraña e inmediatamente lo cambia una vez que se da cuenta, pero antes de eso “creyó” en lo que creyó durante mucho tiempo, incluso después de haber adquirido conocimiento sobre él (lo sé esto me ha pasado, muchas veces en realidad). Y además, los humanos no son lógica pura, pero aún somos muy buenos en algunas cosas que las máquinas de lógica pura no lo son. Entonces, ¿cómo tomar eso en cuenta? Hay algunas formas de evitarlo y, básicamente, implica no hacer las cosas a la perfección (piense probabilístico en lugar de determinista). Sin embargo, todo lo que hagamos para construir esto implicará la imposición de nuestras propias limitaciones. Pero como dije antes, no estamos condenados.

Tienes que volver a pensar en una de las cosas que motivaron a la IA a comenzar. Claro que tenemos todo esto, y si pudiéramos tener seres humanos dentro de las computadoras. Pero otra forma de verlo es que tenemos estos programas que hacen exactamente lo que les decimos, hasta la letra. ¿Te imaginas si tuvieras que hacer esto con tu hijo? Es realmente molesto, así que ¿por qué no dejas que tu hijo aprenda en lugar de molestarte con todo todo el tiempo como un bebé? Así que queremos que los programas aprendan. Bueno, ¿aprender qué? Resulta que tienes que hacer un montón de trabajo duro para que aprendas una cosa específica. Pero luego, una tarde, estás en tu silla tomando café y obtienes esto, como, una idea totalmente meta: ¿qué pasa si puedo hacer que mi programa aprenda a aprender? Como en, ¿qué pasa si sabe lo que necesita aprender sin que yo lo diga? Imagínalo como un bebé aprendiendo a hablar. Nadie “le dice” al bebé cómo hablar inglés, él solo recogerá pedazos y pedazos durante algunos años y lo armará él mismo.

De la misma manera, estamos desarrollando herramientas para programas que pueden aprender, y luego aprender cómo aprender, aprender qué aprender, y básicamente arrancar su propia inteligencia de esa manera. Mi impresión ha sido que en la mayor parte de la IA, este enfoque jerárquico es lo que tiene sentido para todos, pero ha sido demasiado difícil. El aprendizaje profundo, por ejemplo, ha sido increíblemente exitoso en la aplicación de este enfoque, y aunque hay muchas cosas que aún se están diseñando a mano, su principal atractivo es que hace muchas cosas que otras técnicas de inteligencia artificial no pueden hacer, y que es aprender lo que cree que debería aprender (en términos más técnicos, es realmente un buen aprendizaje no supervisado). No es imposible imaginar cómo desarrollaríamos métodos para descubrir cuáles son las mejores maneras de hacer las partes que se diseñan a mano automáticamente. Además, creo que el cerebro humano tiene cierta jerarquía, pero es posible que desee preguntarle a alguien como Paul King acerca de eso para obtener más detalles.

De todos modos, una IA más inteligente que los humanos parece una conclusión lógica.

Teóricamente, sí!

Los seres humanos han construido sistemas de inteligencia artificial (inteligencia artificial) que pueden “razonar” hasta cierto punto. Las IA construidas pueden vencer a cualquier humano ahora es ajedrez. Ahora no es eso impresionante ¡Todavía ni siquiera remotamente cerca!

Ya ves que nuestros cerebros están hechos de 100 mil millones de neuronas. Son colectivamente nuestra CPU. Diferentes partes del cerebro realizan diferentes acciones, como # visualizar cosas, # razonar lógicamente, etc. Y nuestro sistema hormonal hace el trabajo de crear emociones en nosotros.

En los sistemas de inteligencia artificial, tratamos de imitar el proceso de pensamiento del cerebro. Así que usamos la red neuronal artificial (neuronas) y la mutación (proceso), etc. como lo hace el cerebro. Pero el cerebro es mucho más complejo y apenas hemos arañado la superficie para entenderlo.

¡Pero definitivamente podemos hacer que suceda algún día!

Por cierto, mira estas cosas geniales … Los científicos replicaron el cerebro de un pequeño gusano como una red neuronal de robots. El robot se comporta exactamente igual.
Científico imitando el cerebro de un gusano a un robot lego

Version corta.
P) ¿Puede una máquina construida por ingenieros humanos ser físicamente más fuerte que aquellos ingenieros que la construyeron?

A) Por supuesto que sí. La máquina no está limitada por las limitaciones físicas de la biología humana.

Es razonable suponer que la inteligencia humana es un producto (en parte) de procesos computacionales que se ejecutan en componentes biológicos.

Entonces, algunos aspectos de nuestra inteligencia están limitados por las limitaciones de esos componentes biológicos.

Dos limitaciones obvias son la velocidad y la capacidad . Las neuronas son bastante lentas. Los seres humanos tienen menos de 100 mil millones de neuronas en sus cerebros. Nadie puede superar esas limitaciones biológicas.

Pero no hay razón para que una máquina tenga esas limitaciones. Así que una máquina podría ser potencialmente más rápida y tener mayor capacidad.

Puedo imaginar que algunos pueden argumentar que una mayor velocidad y capacidad no es lo mismo que una mayor inteligencia.

Pero una limitación muy importante de la inteligencia humana es la tienda de trabajo. Cuántas ideas individuales se pueden tener al mismo tiempo. Las personas más inteligentes tienden a ser capaces de hacer malabares con más bolas mentales. Una vez más, no hay razón para que un cerebro artificial comparta esta limitación.

En una muestra lo suficientemente grande de humanos, algunos procesarán la información en (digamos que hacer) en una lista más rápida que en el bucle (comando) y de lo contrario será para el resto en la muestra. La velocidad a la que se procesa la información es una métrica de inteligencia (si no la única).
Sin embargo, una máquina en particular será más rápida en el procesamiento de bucles o en la lista (por ejemplo, python).
Aquí (y vs o) es donde la correspondencia (y, por lo tanto, la comparación), lógicamente falsas.

Sí, bajo escenarios específicos, es posible. Tomemos, por ejemplo, el juego de ajedrez. Cuando se escribieron los primeros programas de computadora de ajedrez, muchos dudaban si la IA sería alguna vez tan buena como la de los humanos, especialmente porque el ajedrez es todo sobre el razonamiento lógico y la estrategia compleja. Con el tiempo, la IA superó completamente a los humanos en el ajedrez. El mejor jugador de ajedrez del mundo tiene una calificación de alrededor de 2880, mientras que casi todos los motores de ajedrez tienen una calificación más allá de 3100. Ningún ser humano puede siquiera soñar con vencer una computadora de ajedrez en estos días. De hecho, utilizan las computadoras como herramientas para avanzar en su propia comprensión del complejo juego. Ejemplos similares abundan en diferentes campos.
La IA, si se le da poder para generar una nueva IA, podría volverse invasiva y destruir el mundo. Pero aún estamos lejos de esa etapa.

Por supuesto que hoy ni siquiera estamos cerca de hacer esto. ¿Pero podría hacerse algún día?

Sí. La razón es fácil. Dicha máquina se construirá durante un cierto período de tiempo. Un ingeniero humano puede aplicar su creatividad e inteligencia a un subsistema y luego lo que se hace. Trabaja en la siguiente parte y así sucesivamente. De hecho, cientos de ingenieros trabajan durante muchos años y construyen un sistema, una parte después de la siguiente, donde la suma de la complejidad de las partes es lo que siempre desea.

Es por esto que un novelista que escribe un libro puede crear un personaje que parece ser más inteligente y ingenioso que el autor. Es porque los autores pasan días pensando en una simple observación que tiene uno de sus personajes. Tanto los ingenieros como los autores tienen la capacidad de dedicar tiempo a la elaboración de cada parte. Pero con la IA también puede haber cualquier número de ingenieros.

He estado en el negocio de desarrollo de software durante un tiempo de registro y muchas veces he trabajado en proyectos sin que un párroco entienda cómo funciona el sistema. Es demasiado grande y complejo, y el cerebro de nadie es tan grande. Por lo tanto, tenemos especialistas y grupos de especialistas y reuniones interminables para decidir cómo las partes se comunicarán entre sí.

Pero incluso una persona que trabaja sola puede construir un proyecto de complejidad arbitraria. Construyo algo y luego la próxima semana agrego algunas partes más y una semana después de wrk agrego algunas más. Si viviera lo suficiente (o recibiera suficiente ayuda), la complejidad del proyecto podría crecer sin límites.

Hay otros trucos matemáticos que la biología ha descubierto. Una es la simetría. Si el lado izquierdo y el lado derecho del cuerpo son imágenes en espejo, podemos construir un cuerpo completo con solo la mitad de la información requerida. Si sabemos cómo construir un hueso, podemos obtener esa información para construir los 205 huesos del cuerpo. Del mismo modo, solo tiene que saber cómo construir una célula y luego reutilizarla unos cuantos miles de millones de veces. Todo esto es lo que llamamos “estructuras repetidas” y permiten que algo tan complejo como un humano se construya a partir de una hebra de ADN que es miles de veces más simple.

Si definimos la inteligencia de esta manera, entonces una máquina puede ser más inteligente que los humanos

Sabemos que las máquinas utilizadas para la inteligencia artificial AI pueden cumplir con todas las definiciones anteriores en formas que los humanos definen como “inteligentes”

Es realmente una cuestión de ‘malabarismo de palabras’ para decir si una forma de hacer las máquinas es igual o mejor que un humano que lo haga.

  1. Memoria Las máquinas tienen mejores recuerdos que nosotros. Los usamos para recordarnos que hagamos cosas que podríamos olvidar
  2. Conocimiento Pueden almacenar más conocimientos fácticos que nosotros, de manera similar a como lo hacen los libros.
  3. Experiencia El aprendizaje automático es similar al aprendizaje humano, ya que pueden mejorar en las tareas con la práctica. Esto se usa para máquinas que aprenden a jugar juegos.
  4. Entendiendo Cuando busca información, la máquina tiene que entender su pregunta de entrada. Es posible que tenga que pedirle que repita la pregunta de manera que pueda entenderlo mejor.
  5. Razonamiento El razonamiento de máquina es similar al razonamiento humano en que compara situaciones para el mejor resultado
  6. La imaginacion Esta habilidad es difícil de definir para los humanos. Si ‘Imaginación’ se define como ‘Estilístico’ en el sentido de probar posibles variaciones en un tema, entonces las máquinas pueden hacerlo.
    Artísticamente es la base del arte computacional y la música computacional.
    Pero si la imaginación se define como que requiere un resultado que tiene un significado y un propósito, entonces podría limitarse a ofrecer una gama de posibles enfoques a un problema. Por supuesto, la mayoría de los consejos toman esta forma, por lo que se necesita una definición precisa de ‘Imaginación’ para comenzar
  7. El juicio En términos legales, las máquinas pueden hacer juicios, y comúnmente lo hacen. También en ciencia y tecnología, las máquinas hacen juicios al comparar elementos de la misma manera que los humanos
    Automóviles de conducción son un ejemplo de máquinas que hacen juicios

En general, como las máquinas pueden hacer todas estas cosas individualmente mejor que los humanos, la cuestión del “intelecto” es más bien de “¿Pueden estas máquinas hacerlo con un sentido de sentido y propósito?” Es una pregunta filosófica, y no tiene una idea clara. Cortar respuesta, pero esto también se aplica a los humanos cuando hacemos cosas por costumbre o por impulso que no tienen ningún significado o propósito.

Desde un punto de vista psicológico, se sabe que los humanos pueden relacionarse con las máquinas de manera similar a cómo se relacionan con otros humanos. Esto sucede con la adicción a los juegos de computadora, e incluso a la pornografía.
Y hay máquinas que pueden engañar a los humanos para que piensen que están hablando con otro humano, pero esas situaciones solo son útiles para comparar cuánto podemos controlar las máquinas.

Hay muchas películas que utilizan el tema de Android (máquinas en forma de humanos) y Cyborgs (Humanos con implantes digitales que aumentan sus capacidades)
También de clones humanos que son idénticos a los humanos.
Podría imaginarse que una combinación de estos podría producir una máquina que fuera sobrehumana al punto que consideraba a los humanos como una especie inferior.

También puede darse el caso de que tales ideas estén más cerca de la realidad de lo que suponemos.
Aquí hay algunas aplicaciones de la inteligencia artificial para la toma de decisiones que superan la capacidad humana.
toma de decisiones ai – Búsqueda de Google

No, ellos no pueden. Especialmente cuando se considera que no existe una definición real de inteligencia de trabajo, sería imposible definir lo que entendemos por “más de eso”. Sin embargo, por el bien de esta pregunta, podemos suponer que se correlaciona con el conocimiento y la capacidad de participar en un pensamiento novedoso [como se considera entre los humanos],

Sin embargo, la mayoría de las respuestas suponen que la inteligencia es simplemente algún tipo de proceso mecánico. No lo es

La razón por la que no se puede hacer, es porque es imposible confirmar que se ha logrado.

Uno puede verificar fácilmente si una máquina puede volar, o si puede moverse más rápido que un humano. Estos son simples problemas de física.

Sin embargo, uno no puede confirmar la inteligencia a menos que sea más inteligente que el sujeto que se evalúa. Por lo tanto, sería imposible verificar que se haya logrado una inteligencia superior o no. En resumen, si tal máquina ofreciera una nueva prueba matemática [como ejemplo], uno tiene que tener la capacidad de verificar el resultado para determinar si es válido o no funciona.

Incluso podemos olvidarnos de la inteligencia artificial. Solo pregunte si puede construir una máquina que pueda resolver problemas que usted no puede. ¿Qué significaría construir una computadora de ajedrez si no sabes cómo jugar al ajedrez?

Esta es solo otra fantasía humana que insiste en que el cerebro es solo una “computadora” e ilustra un malentendido fundamental de la “mente”.

Hay dos preguntas separadas y muy diferentes aquí. El primero va a lo que entendemos por inteligencia (artificial). Pienso en la IA como la habilidad que exhiben las máquinas (principalmente las computadoras) para imitar la inteligencia humana. Hay una IA débil (que se limita a tareas específicas como el juego de Go o ciertos tipos de pronóstico) y una inteligencia fuerte (que puede realizar múltiples tareas). Si acepta mi definición de IA, específicamente AI débil, ahora hemos construido sistemas con inteligencia sobrehumana. AlpaZero es un ejemplo de tal sistema. Los participantes en los torneos de ajedrez han sido atrapados haciendo trampa con programas de ajedrez que tienen habilidades sobrehumanas. Mis pronósticos de inteligencia artificial (dentro de límites estrechos) son extraños. Entonces, la respuesta a tu primera pregunta es “Sí, dentro de una inteligencia débil”.

La segunda pregunta se refiere a la “comprensión”, que, a la ligera, es la capacidad de comprender las ideas. Ninguna IA que yo sepa entiende nada. Solo imitan (ver arriba). No tienen conciencia ni conciencia. Así que ellos realmente no comprenden nada.

Mirando cómo se está desarrollando la inteligencia artificial de los últimos años, diría que probablemente sí.

Ciertamente hemos hecho avances increíbles gracias a Deep Learning. En este momento, un robot puede superar el rendimiento humano en reconocimiento facial, reconocimiento de imágenes o en el juego Go.

Aquí hay una discusión interesante sobre si un robot puede tener emociones, un alto nivel de inteligencia o conciencia.

PD: otra forma de convencerte: enciende el MTV y luego vuelve a hacer tu pregunta 😉

Sí. El mayor obstáculo en este momento es el desarrollo de software que pueda reconocer imágenes naturales sin una plantilla preformada. Esto ya existe, ahora es cuestión de hacerlo más eficiente. El problema es que el cerebro no está conectado digitalmente. La respuesta: desarrollo de microprocesadores que imiten mejor lo que podemos hacer. Ese desarrollo está teniendo lugar ahora. Es solo un problema del cerebro de la derecha contra la izquierda, las computadoras ya pueden calcular las matemáticas más rápido y con mayor precisión que nosotros.