El futuro de la inteligencia artificial

La semana pasada abordamos el estado pasado y presente de la inteligencia artificial: cómo se ve la IA moderna, las diferencias entre IA débil y fuerte, AGI y algunas de las ideas filosóficas sobre lo que constituye la conciencia. La IA débil ya nos rodea, en forma de software dedicado a realizar tareas específicas de manera inteligente. La IA fuerte es el objetivo final, y la verdadera IA fuerte sería similar a lo que la mayoría de nosotros hemos llegado a conocer a través de la ficción popular.

La Inteligencia General Artificial (AGI) es un objetivo moderno al que muchos investigadores de IA actualmente dedican sus carreras a cerrar esa brecha. Si bien AGI no necesariamente tendría ningún conocimiento, podría ocuparse de cualquier tarea relacionada con los datos que se le presente. Por supuesto, como seres humanos, está en nuestra naturaleza tratar de predecir el futuro, y hablaremos de eso en este artículo. ¿Cuáles son nuestras mejores conjeturas sobre lo que podemos esperar de la IA en el futuro (cercano y lejano)? ¿Qué posibles preocupaciones éticas y prácticas existen si se crea una IA consciente? En este futuro especulativo, ¿debería la IA tener derechos o debería temerse?

El futuro de la IA

El optimismo entre los investigadores de IA sobre el futuro ha cambiado a lo largo de los años y es objeto de un fuerte debate incluso entre los expertos contemporáneos. Trevor Sands (presentado en el artículo anterior como investigador de inteligencia artificial para Lockheed Martin, quien enfatiza que sus declaraciones reflejan sus propias opiniones, y no necesariamente las de su empleador) tiene una opinión reservada. Lo pone de esta manera:

Dado que AGI existe como concepto, los investigadores (y optimistas por igual) han afirmado que está "a la vuelta de la esquina", a unas pocas décadas de distancia. Personalmente, creo que veremos surgir AGI en el próximo medio siglo a medida que el hardware llegue a la teoría, y más empresas vean el potencial de avances en IA. AGI es la conclusión natural de los esfuerzos en curso en la investigación de la IA.

Incluso la inteligencia artificial sensible podría ser posible en ese período de tiempo, como dice Albert (otro investigador de inteligencia artificial que nos pidió que usáramos un seudónimo para este artículo):

Espero verlo en mi vida. Al menos espero ver suficiente inteligencia artificial para que la gente discuta enérgicamente sobre si son "sensibles" o no. Lo que esto realmente significa es una pregunta mucho más difícil. Si la sensibilidad significa "consciente de sí mismo", entonces, de hecho, no parece tan difícil imaginar una máquina inteligente que pueda tener un modelo propio.

Tanto Sands como Albert creen que la investigación actual sobre redes neuronales y aprendizaje profundo es el camino correcto y es probable que conduzca al desarrollo de AGI en un futuro no muy lejano. En el pasado, la investigación se ha centrado en una IA fuerte y ambiciosa o en una IA débil, que es limitada. El medio AGI, y específicamente el creado por redes neuronales, parece ser fructífero hasta ahora, y es probable que provoque aún más avances en los próximos años. Las grandes empresas como Google ciertamente creen que sí.

Ramas y ética de una IA fuerte

Cada vez que se habla de la IA, siempre surgen dos cosas principales: ¿cómo afectará a la humanidad y cómo debemos tratarla? Las obras de ficción son siempre un buen indicador de los pensamientos y sentimientos de la población en general, y los ejemplos de estas preguntas abundan en la ciencia ficción. ¿Intentará la IA suficientemente avanzada eliminar a la humanidad o al Skynet? ¿O la IA necesitará derechos y protección para evitar atrocidades como las previstas en la Inteligencia Artificial de la IA?

Inteligencia artificial aterradora

En ambos escenarios, un tema común es el de una anomalía tecnológica derivada de la creación de una verdadera inteligencia artificial. La anomalía tecnológica se define como un período de progreso exponencial que ocurre en un tiempo muy corto. La idea es que la IA pueda mejorarse a sí misma o producir IA más avanzadas. Debido a que esto sucedería rápidamente, los avances dramáticos podrían ocurrir esencialmente de la noche a la mañana, lo que resultaría en una IA mucho más avanzada que la creada originalmente por la humanidad. Esto podría significar que terminaremos con una IA o IA malvada superinteligente que era consciente y merecía derechos.

Malica AI

¿Y si esta hipotética IA superinteligente decidiera que no le gustaba la humanidad? ¿O simplemente fue indiferente para nosotros? ¿Debemos temer esta posibilidad y tener cuidado de prevenirla? ¿O son estos miedos simplemente el resultado de una paranoia infundada?

Sands plantea la hipótesis de que "AGI revolucionará a la humanidad, su aplicación determina si esto será un efecto positivo o negativo; esto es muy similar al hecho de que 'el agrietamiento del átomo' se ve como una espada de dos filos". se trata solo de AGI, no de una IA fuerte. ¿Qué pasa con la posibilidad de una IA sensible, consciente y fuerte?

Es más probable que ese potencial no provenga de una IA maliciosa, sino más bien indiferente. Albert plantea la cuestión de la IA con una tarea aparentemente sencilla: "La historia dice que eres el propietario de una fábrica de papel, así que le pides a la AGI que maximice la producción de sujetapapeles. La AGI luego usa su inteligencia superior para encontrar una manera de conviértase en todo el planeta. ¡clips de papel! "

Durante un divertido experimento mental, Albert rechaza esta idea: "¿Me estás diciendo que este AGI, puede entender el lenguaje humano, es muy inteligente, pero no comprende completamente las sutilezas de la solicitud? O que no podría pedir un explicación o supongo que convertir a todas las personas en clips es una mala idea ".

Básicamente, si la IA fuera lo suficientemente inteligente como para comprender y realizar una escena dañina para las personas, también tendría que ser lo suficientemente inteligente como para saber que no debe hacerlo. Las Tres Leyes de la Robótica de Asimov también podrían desempeñar un papel aquí, aunque es dudoso que puedan implementarse de tal manera que la IA no haya podido cambiarlas. Pero, ¿qué pasa con el bienestar de la propia IA?

Derechos de IA

En el lado opuesto del argumento está si la inteligencia artificial merece protección y derechos. Si se creara una IA sensible y consciente, ¿podemos simplemente desactivarla? ¿Cómo debería tratarse una entidad de este tipo? Los derechos de los animales son un tema controvertido incluso ahora, y hasta ahora no hay consenso sobre si algunos animales poseen conciencia (o incluso sensibilidad).

De ello se deduce que este mismo debate se aplicaría también a seres artificialmente inteligentes. ¿La esclavitud obliga a la IA a trabajar día y noche en beneficio humano? ¿Debemos pagar por sus servicios? ¿Qué haría AI con ese pago?

Mala película, idea interesante

Es poco probable que pronto tengamos respuestas a estas preguntas, especialmente no respuestas que satisfagan a todos. "Una objeción moral convincente a la AGI es: ¿cómo podemos garantizar que la inteligencia artificial, al mismo tiempo que un ser humano, tenga los mismos derechos que un ser humano? Considerando que este sistema inteligente es fundamentalmente diferente de un ser humano, ¿cómo definimos ¿Derechos fundamentales de la IA? La inteligencia artificial como forma de vida artificial, ¿se nos permite quitarle la vida ("apagarla?). Antes de llegar a AGI, debemos pensar seriamente en la ética de la IA", dice Sands.

Estas cuestiones de ética, y muchas otras, serán sin duda un debate continuo a medida que avanza la investigación de la IA. A todas luces, estamos muy lejos de estar en forma. Pero incluso ahora hay conferencias para discutir estos temas.

Cómo puede participar

La investigación y la experimentación de la inteligencia artificial ha sido tradicionalmente el dominio de académicos e investigadores que trabajan en laboratorios corporativos. Pero, en los últimos años, la creciente popularidad de la información gratuita y el movimiento de código abierto se ha extendido incluso a la IA. Si está interesado en comprometerse con el futuro de lo artificial, hay muchas formas de hacerlo.

Si desea experimentar con redes neuronales usted mismo, hay software disponible para hacerlo. Google tiene un área de juegos en el navegador para trabajar en técnicas teóricas básicas de redes neuronales. Las bibliotecas web neuronales de código abierto, como OpenNN y TensorFlow, están disponibles de forma gratuita. Aunque estos no son exactamente fáciles de usar, los aficionados decididos pueden usarlos y expandirlos.

Zona de juegos de Google en la red neuronal

Sin embargo, la mejor manera de involucrarse es hacer todo lo posible para una mayor investigación profesional. En los Estados Unidos, esto significa una actividad para promover la financiación de la investigación científica. La investigación de la IA, como toda la investigación científica, se encuentra en una posición precaria. Para aquellos que creen que la innovación tecnológica es el futuro, el impulso de la financiación pública de la investigación es siempre un esfuerzo que vale la pena.

A lo largo de los años, el optimismo generalizado en torno al desarrollo de la inteligencia artificial ha cambiado. Estamos muy altos ahora, pero es muy posible que esto cambie. Pero, lo que es indiscutible es cómo la posibilidad de la IA estimula la imaginación del público. Esto es evidente en la ciencia ficción y el consumo lúdico. Tal vez tengamos una IA fuerte en unos años, o tal vez dure algunos siglos. Lo cierto es que probablemente no abandonemos la búsqueda.

  • sadhana dice:

    en lugar de ai fuerte y ai débil, ¿qué pasa con la IA y no con la IA?

    La superación personal recursiva es casi imposible de desarrollar en una máquina. Las máquinas no tienen yo y las mejoras son muy subjetivas. A veces, destruir un sistema lógico por completo puede ser una mejora, pero al mismo tiempo una destrucción.

    Para citar a Tyler Durden, "la superación personal es la masturbación". Hay muchos contextos en los que esta expresión puede romper la premisa de la IA.

    Creo que lo mejor para nosotros será tener un amor completo y máquinas autónomas para realizar tareas en entornos peligrosos donde las comunicaciones no son posibles o prácticas. La forma de "IA débil" se llama mejor automatización de procesos continuos. Llamar a las implementaciones actuales de automatización de procesos AI es tan notable como cuando los desarrolladores de mapas llamaron a sus algoritmos de mapas AI.

    • Mike Szczys dice:

      La superación personal recursiva es casi imposible de desarrollar en una máquina.

      ¿No es el aprendizaje automático una forma de superación personal recursiva? Lo que a menudo falta es una forma de medir la "mejora". Si esto es parte del sistema, cierra el ciclo y una máquina tiene la información necesaria para juzgar si los cambios son mejores o no mejores.

      • jacques1956 dice:

        ¡Ciertamente lo es!

      • Dax dice:

        1) Lo que aprende depende de qué y cómo se planea aprender.
        2) Que se "mejore" a sí mismo a través de ese aprendizaje depende de lo que aprenda, es decir, su mejora depende de la información que le proporcione, aunque sea por casualidad.

        No puede programar un programa para mejorar un sistema por sí mismo, porque si supiera exactamente cómo ocurre una mejora, podría omitir todo lo molesto y programarlo mejor. Si ya sabe cómo obtener la solución, no necesita la IA para hacerlo.

        La IA autodidacta es un truco ligeramente semántico que a muchas personas en la comunidad de investigación de IA les gusta dibujar cuando describen lo que están haciendo. Por ejemplo, cuando le enseñan a ASIMO a diferenciar un carro de juguete repitiendo verbalmente un “carro de juguete” cuando el robot imagina el carro, el robot aprende la palabra de señal; luego, los investigadores dan a entender que el robot entiende que es un coche de juguete, pero todo lo que realmente hicieron fue darle una etiqueta arbitraria para datos arbitrarios y programarlo para que repita la etiqueta. También pueden haber ingresado la información en la base de datos manualmente. El robot no aprendió nada, solo logró crear un nuevo tipo de "interfaz de usuario" de programación y una rutina para ingresar datos que imitan parte del comportamiento externo de las personas cuando descubren nuevos objetos.

        • Artenz dice:

          AlphaGo se ha mejorado a sí mismo y ninguno de los desarrolladores pudo implementar el resultado directamente.

          • Dax dice:

            Por supuesto, porque ninguno de los desarrolladores tiene la capacidad personal de analizar millones y millones de juegos pregrabados y luego jugar unos contra otros para probar todas las estrategias reveladas.

            Cuando ejecuta los algoritmos y transmite los datos entre los pasos del análisis hasta la implementación "a mano", no se llama inteligente. Cuando automatiza los pasos de un guión para que los investigadores digan "¡Mire, no manos!" se llama IA.

            Esa es la cosa.

          • Dax dice:

            O use el otro punto: ¿y si el entrenamiento para el programa consistiera en aficionados que no supieran cómo jugar? ¿Seguiría mejorando el programa para vencer al maestro?

            La idea de la superación personal del sistema implica que el programa puede comenzar a partir de algunos datos arbitrarios y luego mejorar tras mejora tras mejora hasta convertirse en el mejor en todo. La reducción ad absurdum de la idea es darle al programa la letra "A" y esperar a que finalmente se le ocurra:

            “Ahora, hermoso Hipólito, la hora de nuestra boda
            Dibuja rápidamente; vienen cuatro dias felices
            Otra luna: pero, oh, piensa qué lento ... "

          • haltux dice:

            AlphaGo analiza miles de millones de juegos y construye un modelo de clasificación de qué posición conduce a la victoria y qué posición conduce al fracaso. Esto no tiene nada que ver con la inteligencia en el sentido habitual de la palabra.

          • s dice:

            Dax, le das al hombre la ventaja implícita de múltiples sentidos interconectados que funcionan simultáneamente.

            Hasta ahora tenemos "IA" que solo toma un elemento pequeño de forma aislada. Siri puede usar una red neuronal para reconocer una palabra específica de un flujo de grabación de voz humana, pero después de eso, es solo una simple búsqueda preprogramada a través de un glosario para encontrar el comando que acompaña a esa palabra.

            > El bebé aprende tanto la palabra como el objeto como experiencias subjetivas que tienen significado para el bebé; también debe aprender que repetir la palabra tiene sentido. La computadora solo está preprogramada para reconocer palabras habladas y tomar fotos cuando se le solicite.

            Todo lo que tiene que ver con la IA fuerte y verdadera es que * NO * está preprogramada para reconocer palabras habladas o hacer algo por orden.

            Si la computadora se inicia en el mismo punto que el bebé, puede lograr el mismo resultado.

            Esto significaría un sistema capaz de analizar el sonido, generar sonido y relacionar la causa-> efecto de lo que dice con lo que escucha.

        • jacques1956 dice:

          Este es el mismo aprendizaje para un ser humano. Para enseñarle a un bebé lo que es un "coche de juguete", enséñele uno y repita "coche". Entonces, un cerebro hace la asociación entre el objeto que ve y el sonido que escucha al mismo tiempo. Y esta ubicación depende del idioma utilizado. Nuestro cerebro no es más que una red asociativa. La única diferencia con la IA es su complejidad, que resulta de la gran cantidad de neuronas y una gran cantidad de sinapsis (conexiones entre neuronas, puede haber hasta 1000 sinapsis por neurona: http: //www.madsci. org / posts / archives / 2003-03 / 1046827391.Ns.r.html).

          ¿Alguna vez has violado este hecho? Le repites la palabra “papá” a un bebé hasta que él la repite. Pero primero repite la palabra cuando ve a un hombre. Entonces tienes que enseñarle que "papá" se refiere a un hombre específico, no a ningún hombre. Su cerebro perfecciona la asociación.

          • Dax dice:

            Para nada. Es solo superficialmente lo mismo. El bebé aprende tanto la palabra como el objeto como experiencias subjetivas que tienen significado para el bebé; también debe aprender que repetir la palabra tiene sentido. La computadora solo está preprogramada para reconocer palabras habladas y tomar fotos cuando se le solicite. A la orden, simplemente almacena la foto (o la representación calculada del objetivo en un marco) en la categoría de "coche de juguete" dictada. En otro comando para identificar un objeto destacado, toma otra foto y compara la compatibilidad con los datos que ha almacenado, y devuelve el nombre de la categoría que se le ordenó crear previamente: "coche de juguete".

            Esto es completamente análogo a sentarse en una computadora, crear un archivo llamado "toy_car.txt" y guardar la palabra "rojo" en él. Aquí, la palabra "rojo" representa los datos que se le indica al robot que recopile con su cámara. Luego, busca todos los archivos de texto que contienen la palabra "rojo" y los enumera. La computadora dice "toy_car.txt". Todo el proceso es complicado solo por tener que enviar los comandos al convertidor de palabra a texto en el robot, y esta farsa complicada se parece mucho a un bebé que aprende una nueva palabra, por lo que las personas involucradas fingen que es lo mismo. . No lo es.

            > "La única diferencia con la IA es su complejidad, que resulta de la gran cantidad de neuronas y una gran cantidad de sinapsis"

            Esta idea se basa en la idea de que el cerebro es un sistema clásico, por lo que las redes se pueden representar como un programa de computadora con suficiente poder de procesamiento, mientras que de hecho existe una creciente evidencia de que los cerebros no son computadoras clásicas:

            https://phys.org/news/2017-02-androids-quantum-sheep.html
            > ”El equipo investigó los 'procesos de entrada y salida', evaluando el marco matemático utilizado para describir dispositivos arbitrarios que toman decisiones futuras basadas en estímulos recibidos del entorno. En casi todos los casos, encontraron, un dispositivo cuántico es más eficiente porque los dispositivos clásicos deben almacenar más información pasada de la necesaria para simular el futuro. "

          • Dax dice:

            Más del mismo artículo:

            > "La coautora Jayne Thompson, investigadora de CQT, explica además:" Los sistemas clásicos siempre tienen una realidad definitiva. Necesitan almacenar suficiente información para responder correctamente a todos los posibles estímulos futuros. Al diseñar un dispositivo cuántico para que diferentes entradas se asemejen a diferentes medidas cuánticas, podemos reproducir el mismo comportamiento sin retener una descripción completa de cómo responder a cada pregunta individual. ""

            Esto describe exactamente el problema que tiene la IA clásica de intentar mirar alrededor del mundo que la rodea: debe estar en un estado definido. Puede darle un millón de imágenes de cosas para obtener alguna "representación invariante", pero no funciona porque la realidad está llena de casos especiales y excepciones. Lo entrenas con un millón de imágenes de un paraguas en varios colores, formas, tamaños, diferentes condiciones de iluminación ... y luego alguien sale del bosque con una enorme hoja de ruibarbo sobre su cabeza. La computadora está "mal ..."

            O en otro caso: ¿cuándo es un taburete y cuándo es una mesita de café muy pequeña? Si le das la vuelta, ¿en qué momento deja de ser un taburete / mesa y pasa a ser una bota de goma?

            http://www.stoolsonline.co.uk/shop/images/thumbs/t_rubberwoodstool2402244ff.jpg

            La gente no necesita decidir, porque en principio no trabajamos en categorías rígidas de qué tipo de cosas.

      • sadhana dice:

        Las máquinas no aprenden. Procesan información y la transmiten a un observador. Independientemente del observador, simplemente hacen cálculos. Si bien sí, las mentes humanas procesan la información de formas no muy alejadas de las calculadoras, las calculadoras son un componente fundamental de la innovación humana. Las personas pueden aprender independientemente de las observaciones de los demás. En los escenarios actuales, la gente está aprendiendo. Los oblatos de silicato son tan tontos como siempre ... tal vez algunos electrones sean más pesados.

        La IA tampoco necesita parecerse al proceso del pensamiento humano con todas sus imperfecciones. En algunos casos, la devoción es útil. La naturaleza le ha dado a nuestros cuerpos un arsenal de herramientas para sobrevivir que las computadoras simplemente no necesitan. La inteligencia puede ser tan estúpida en sí misma como buscar una máquina, para mejorarla puede que no sea necesario pensar.

    • jacques1956 dice:

      "La superación personal recursiva es casi imposible de desarrollar en una máquina".

      ¿Alguna vez has oído hablar de un algoritmo genético?

      https://en.wikipedia.org/wiki/Genetic_algorithm

      • Dax dice:

        Estos funcionan cuando ya sabes qué es "mejor".

        La superación personal en el sentido de la IA general no te da esa información, o al menos tienes que imponer "mejor" a la máquina para esforzarse, lo que significaría que no haría lo que tú no hiciste. pídalo: actuaría exactamente como estaba programado y nada más, porque usted establece el objetivo final y los criterios.

        No sería la superación personal, ya que no es la IA la que establece los objetivos.

        • Artenz dice:

          La mayoría de las personas tampoco apuntan a sus propios objetivos. Si IA puede hacerlo tan bien como esas personas, lo consideraré un gran éxito.

          • Dax dice:

            La mayoría de la gente opta por no elegir. Eso sigue siendo opcional.

            En cualquier momento podrías, por ejemplo, quitarte la ropa y saltar por la ventana; bucear te matará. Eso está dentro del ámbito de las posibilidades para el hombre. No es así para la "IA".

          • Artenz dice:

            "En cualquier momento podrías, por ejemplo, quitarte la ropa y saltar por la ventana"

            No, no pude. No tengo ninguna inclinación a hacer eso y no tengo idea de cómo cambiar ese deseo.

          • Dax dice:

            > "No, no podría. No tengo ninguna inclinación a hacer eso y no tengo idea de cómo cambiar ese deseo. "

            Eso falta al grano. El programa no es diferente de su programación - no es posible que alguna vez se le ocurra la idea de resolver un problema con "Voy a saltar por la ventana" porque es un seguidor completo de su software - puede 'Make un salto de imaginación, a menos que el hardware sea importante y esté roto, o si agrega intencionalmente un generador de números aleatorios que tiene la posibilidad de hacer que la máquina sea suicida.

            Mientras tanto, es bastante común que la gente se vuelva loca, se vuelva loca, tal vez porque a veces resulta tener sentido.

            El tipo que inventó los robots de radio expresó la idea de esta manera: “Los cerebros intentan poner orden en el caos, mientras que los investigadores de inteligencia artificial intentan hacer que el caos no funcione”. El caos es la naturaleza aleatoria más que la definición matemática. Es bastante obvio que solo funciona de una manera.

          • Artenz dice:

            "El programa no se desvía de su programación; no es posible que alguna vez se le ocurra la idea de resolver un problema con 'Saltaré por la ventana' porque es un seguidor completo de su software"

            Estas perdiendo el punto. También planeo no saltar por las ventanas, y tampoco me desvío de esa programación.

        • jacques1956 dice:

          La forma en que defiendes un cerebro humorístico parece que tiene algo de mágico. Al contrario, creo que no hay nada mágico en el funcionamiento de nuestro cerebro. Su hazaña es solo una consecuencia de la complejidad cuantitativa. Cuando tenemos el hardware para construir redes neuronales con miles de millones de nudos y billones de enlaces entre ellos, obtendremos la misma complejidad que nuestro cerebro.

          • haltux dice:

            Una hormiga tiene 250.000 neuronas (400.000 veces menos que un humano) y, sin embargo, no podemos hacer eso con las computadoras. Todavía estoy esperando algún video convincente que muestre a los robots haciendo algo comparable a un ejército de hormigas construyendo un antídoto de forma independiente.

    • Dan dice:

      Buen chaleco, ¿qué comprar un mariscal de Turing completo?

      http://artfail.com/automata/img/paper/rule30shell.jpg

      • Dan dice:

        quiero comprar ...

  • DV82XL dice:

    El hecho es que no podemos ponernos de acuerdo sobre la conciencia, ni la nuestra ni la de las inteligencias artificiales. Simplemente no tenemos los datos necesarios para definirlo. Hasta el momento en que hagamos cosas éticas, es mejor.

    El otro problema que casi nunca veo discutido es que la IA verdaderamente cognitiva puede no ser tan útil para quienes la crearon, si es que sufre las mismas limitaciones que la cognición humana: el poder de las máquinas es que son fuertes en los lugares donde son debiles. Tal vez, en lugar de buscar promover la autoconciencia de una máquina a través de la IA, (inteligencia artificial) deberíamos buscar la IA (mejora inteligente) por nosotros mismos.

    • dassheep dice:

      Siempre que escucho una expresión "no definible" pero "intuitivamente obvia", sospecho que es solo una ilusión utilizada para explicar algunos de nuestros comportamientos cuestionables. No me sorprendería en absoluto si resultara que simplemente estamos llamando "consciente" a cualquier cosa que active nuestros circuitos empáticos, y el término por lo demás carece de significado.

      • DV82XL dice:

        No estoy afirmando que la conciencia sea imposible de definir, de hecho, ni siquiera creo que sea todo lo que es intuitivamente obvio, dados los problemas sobre si está en otros animales. Lo que estoy afirmando es que tenemos muy pocos datos difíciles para formar una definición significativa del concepto, de modo que pueda aplicarse para decidir si una máquina lo manifiesta.

        • jacques1956 dice:

          Estoy de acuerdo con dassheep, es nuestro énfasis o la falta de él lo que determinará nuestro comportamiento hacia la IA como lo es con nuestras mascotas. Entonces, la cuestión de la conciencia es secundaria.

          • DV82XL dice:

            La cuestión de la conciencia no es secundaria. De hecho, probablemente será la pregunta más importante cuando determinemos cómo encajarán estas cosas en nuestra sociedad. Nadie discute el derecho de una persona a ejercer la posesión del código y el hardware de un chat, no estoy tan seguro de que podamos permitir lo mismo para la IA dura, y ese argumento no encenderá la empatía, sino que dependerá del establecimiento de límites técnicos. de autoconciencia.

          • Artenz dice:

            De ninguna manera podrá definir la conciencia de una manera significativa, ni la conciencia otorgará automáticamente ciertos derechos. Los derechos son algo que tienes que ganar, ya sea dulce y confuso, o por la fuerza.

          • dassheep dice:

            ¿Por qué la cuestión de la propiedad y los derechos debería estar vinculada a la conciencia? ¿Porque es lo último que no podemos fingir? Pero hay muchas cosas en nuestra cultura que no puedes poseer, incluso si no lo sabes. Por ejemplo, no puede ser dueño de un huracán, incluso si de alguna manera lo produce artificialmente. El clima parece ser de alguna manera inmune al capitalismo, y la idea de poseer una nube es aún tan extraña como lo era la idea de poseer tierras antes de la revolución agrícola.

        • dassheep dice:

          Sin embargo, insistimos en que existe, aunque ni siquiera sepamos qué es. Esto no sucede en la mayoría de los términos en nuestro lenguaje, incluso si son tan abstractos como "verdad" o "justicia". Sin embargo, con la conciencia, estamos bastante seguros de que existe, y de que en particular la tenemos, pero ni siquiera somos capaces de decir qué es y cómo reconocerlo. Esto huele como un truco templado dentro de nuestro cerebro que obliga a creer.

          • DV82XL dice:

            O podría ser una consecuencia de la naturaleza subjetiva autorreferencial esencial de la experiencia de la conciencia. En cualquier caso, no es posible afirmar su existencia en ningún otro contexto sin mejores definiciones, que a su vez deben basarse en mejores datos.

  • Miroslav dice:

    Nuestro cerebro es demasiado complejo para que lo entendamos. Cualquiera que haya estudiado la teoría del control sabe que incluso los sistemas con solo 2 reacciones son difíciles de entender. Y aquí estamos tratando de copiar un sistema con probablemente millones de flashbacks.

    La única forma de progresar es comenzar desde los niveles más bajos, desde animales con solo unas pocas neuronas, y construir desde allí. Algunos científicos serios hacen precisamente eso. Todo lo demás es solo una quimera o obtener-una-financiación-rápida-con-la-última-palabra-palabra.

    En la actualidad, ni siquiera podemos copiar un cerebro fructífero funcional con nuestro nivel de (mal) entendimiento.

    • Artenz dice:

      Nuestros cerebros han evolucionado a partir de cerebros de monos más pequeños en un millón de generaciones sin que nadie comprenda cómo se unen millones de circuitos de retroalimentación. Si comprendemos un conjunto de detalles clave, podríamos desarrollar un cerebro artificial de manera similar, sin comprender realmente cómo funciona todo.

    • jacques1956 dice:

      Teniendo en cuenta el éxito del aprendizaje profundo, no se puede considerar solo como un "encabezado".
      Los frutos de una investigación en profundidad ya están disponibles. Dado que Google utiliza un motor de aprendizaje en profundidad para traducir del francés al inglés, noto una gran mejora.

  • dassheep dice:

    Hay una mejor manera de involucrarse. Puede intentar apoyar los esfuerzos para evitar una IA maliciosa. Como las cosas que hace Eliezer Yudkowsky.

  • elektrobob dice:

    Video algo importante https://www.youtube.com/watch?v=dLRLYPiaAoA

  • Dan Julio dice:

    Siempre pensé que la idea de Asimov, descrita en la historia final "El conflicto evitable" en "Yo, un robot", era una idea interesante sobre la IA. Los robots [computers] al final, básicamente hizo que las cosas funcionaran, porque esa era la consecuencia lógica de su programación para no dañar a los humanos, pero lo hicieron de una manera que no dañaba los egos humanos. La gente no sabía que estaban gobernados por las máquinas, y las máquinas aseguraban que, en general, los humanos tuvieran una existencia bastante buena.

  • AltMarcxs dice:

    Si bien no entenderemos la razón de las religiones, la ética en la IA será difícil de definir. Es por eso que me llamo para-teísta (a diferencia del libro teísta, me pregunto cómo se define dios), con el objetivo de enseñar a una IA futura a no volverse malvada, viendo la verdadera locura religiosa.
    Ser ateo no es suficiente y si quizás la red (neuronal o alguna) sea Dios, desde las hormigas, hasta el gusano NN simulado, hasta las interacciones humanas que llevaron a la sociedad y en última instancia a la ética, este esquema podría entenderse como tal.
    La esperanza y la fe son edificios del futuro que nos animan a los humanos y no nos hacen malvados tampoco, y tal vez la IA necesite algo utópico, nunca demostrable como dioses, solo para que siga funcionando.

    Mira el progreso realizado en el último año, es asombroso y su velocidad de progreso se está volviendo exponencial.
    Como cuando se crea la IA:
    [youtubehttps://wwwyoutubecom/watch?v=oitGRdHFNWw&w=560&h=315%5D[youtubehttps://wwwyoutubecom/watch?v=oitGRdHFNWw&w=560&h=315%5D[youtubehttps://wwwyoutubecom/watch?v=oitGRdHFNWw&w=560&h=315%5D[youtubehttps://wwwyoutubecom/watch?v=oitGRdHFNWw&w=560&h=315%5D

  • nater dice:

    "Las obras de ficción son siempre un buen indicador de los pensamientos y sentimientos que tiene la población en general".

    ¿¡¿Qué?!? No, ellos no son.

    Estas obras son generalmente lo que algunas personas piensan que entretendrán a otras personas de manera rentable.

  • jawnhenry dice:

    Si no crees en la inteligencia artificial, observa cuánto y con qué pasión pesan sobre el tema todas las inteligencias artificiales cuando se les presenta la más mínima oportunidad y razón.

    "Preguntar si las computadoras pueden pensar es como preguntar si los submarinos pueden nadar". - Edsger Djikstra

    "Descubrí que la razón por la que mucha gente está interesada en la inteligencia artificial es la misma razón por la que mucha gente está interesada en las extremidades artificiales: falta una". - David L. Parnas

    La inteligencia artificial (falta de mayúsculas completamente intencional; no debe usarse bajo NINGUNA circunstancia) ha caído en la misma desgracia que el agua extraña, la lógica borrosa, la fusión fría, el candelero del oído, la homeopatía, las máquinas en movimiento eterno, los cohetes de plasma impotentes. , y todas las demás pseudociencias y parafísicas en las que se puede pensar, y mucho de lo que ni siquiera se puede imaginar.

    Antes de que los pseudocientíficos y teólogos compren sus lanzallamas, elija las diez escuelas de mayor rango en el mundo que enseñan ciencias de la computación Y CÓMO MANTENERSE EN EL SER MÁS ALTO DE LA COMUNIDAD CIENTÍFICA E INGENIERÍA GLOBAL. Ahora escríbeles, pidiéndoles que te digan en términos muy explícitos la gran consideración y la importancia que tienen en la exploración de la inteligencia artificial. Incluya estas respuestas en sus respuestas.

    Todos esperaremos

    • nombrar ojo dice:

      qué ¿Es probable que todos lo dirijan a sus laboratorios, dirigidos por científicos de renombre, financiados en abundancia, y produzcan trabajo científico para respaldar la financiación continua y el desarrollo tecnológico? Parece que muchos también tienen cursos para capacitar a futuros ingenieros para que trabajen también en estos programas / sistemas.

  • alemán dice:

    ¿AI? Más que cabello castaño.

  • Dax dice:

    > ”La idea es que la IA pueda mejorarse a sí misma o producir IA más avanzadas. Debido a que esto sucedería rápidamente, un progreso dramático podría ocurrir básicamente de la noche a la mañana ".

    Todas las diferentes ideas sobre anomalías tecnológicas omiten decir de dónde vendrían la energía y los recursos materiales para lograrlas, y se asume que no hay problemas difíciles que no se puedan resolver lanzando más hardware al problema, y ​​la IA sólo puede evocar conocimiento de la nada sin tomarse el tiempo para explorar físicamente su entorno.

    Ajuste ex nihilo nihil.

  • Marke3 dice:

    Entonces, el objetivo es crear algo a nuestra propia imagen. Pero haga lo que queramos ... Pero piense por usted mismo ... Pero coincida ... Pero tenga libre albedrío ... Lo intentamos con mascotas, lo intentamos con niños, lo intentamos con personas en el trabajo y no lo podemos ajustar . Máquinas seguro ...

  • Que no dice:

    Para iniciar la IA inteligente, debe ingresar dos cosas: un conjunto de discos y un conjunto de limitaciones.
    Estoy esperando que alguien se entere.

    • Miroslav dice:

      Bien dicho, señor. Bien dicho. El único problema es el tiempo. Quizás unos pocos millones de años.

  • Dan dice:

    No puedes detener la IA malvada si interactúa con el mundo real, es IA real y piensa por sí misma o no. Ni siquiera podemos crear de manera confiable una inteligencia natural de buen corazón, así que los seres humanos. Si pensamos por nosotros mismos, podemos hacer mucho bien o mal, y si no pensamos por nosotros mismos, casi siempre permitimos que otros hagan un gran daño.

    Además, si la IA misma la mejora, estaría sujeta a alguna forma de selección natural y antinatural y este es esencialmente un proceso aleatorio que solo conduce al hecho de que algunas variedades mejoran la competencia, por lo que también evoluciona hacia algo que se beneficia a sí mismo en un costo. de humanidad. El concepto de mente iluminada, natural o artificial, es completamente subjetivo y depende del contexto, por lo que no existe un vector que siga una evolución de la IA que asegure que nos beneficiaremos. Toda la idea de “bondad” es una ilusión, en el mejor de los casos podemos estar de acuerdo sobre qué comportamientos toleramos, pero incluso eso se desmorona cuando sometemos los principios abstractos a escenarios del mundo real. Suponiendo que pueda convencer a todo el mundo de cualquier cosa, y ¿cuándo fue la última vez que la ONU se comportó de forma remotamente coherente? La cultura humana es solo una cosa, si dices que se trata de todas las ideas en conflicto de nuestra especie, de hecho, los humanos viven en un conjunto de realidades superpuestas en la medida en que sus mentes están sintonizadas. "¡Pero sólo ciencia!" lloras, ah sí y ¿cuántas personas incluso comprenden y suscriben completamente esa idea? La ética es como la historia, en última instancia, las opiniones del vencedor y no una verdad ideal que trasciende y supera la fragilidad humana.

    La única IA fuerte y segura es aquella que vive en un mundo arenoso y no tiene forma de interactuar directamente con el mundo real, tiene que vivir en su propio universo diminuto y tenemos que jugar a ser “dios” sobre él.

    • El snob dice:

      Bueno, muchos físicos creen que vivimos en simulación ...

      • Dan dice:

        Sí, lo mencionaría, pero es un tema secundario, aunque muy profundo. Si es cierto, probablemente sea igual de bueno. 🙂

      • jawnhenry dice:

        Debido a que usted es responsable de abordar el problema, también es responsable de cumplir con su afirmación de que "... muchos físicos creen que * nosotros * vivimos dentro de una simulación ...", una lista de al menos diez físicos de clase mundial hará que sea agradable Para empezar, uno pensaría, con una salvedad adicional: cualquier lista que incluya el nombre de Elon Musk, o cualquier otro pseudo-técnico autoproclamado aspirante, NO un pseudocientífico, o incluso un pseudoingeniero, es automáticamente, y fuera de mano, considerada vacía.

  • yeti dice:

    ¿Verdad mortal de la IA general? - Computerphile

    Por qué las leyes de robótica de Asimov no funcionan - Computer Son

    La IA nos reemplazará y cuando vea lo que la gente está haciendo, esto puede que ni siquiera sea una mala perspectiva ...
    :-PAG

  • donotdespisethesnake dice:

    Se debe agregar un parámetro adicional a la fórmula de Drake: una oportunidad de sobrevivir después de desarrollar AGI. Podría ser muy bajo, lo que podría explicar la paradoja de Fermi.

    • Artenz dice:

      La paradoja de Fermi ya se explica por las grandes distancias entre los sistemas solares, lo que dificulta tanto los viajes como la comunicación simple. Por ejemplo, nuestras transmisiones de televisión ya son muy difíciles de captar desde la órbita de Plutón, incluso a menos de 100 años luz de distancia. Y casi todos los miles de millones y miles de millones de estrellas están lejos.

  • OMGWTFZPMBBQ dice:

    Oye ... muy posiblemente.
    Por otro lado, tal vez AGI sea fácil, pero los viajes interestelares, ¿no es así? Tenía la loca idea de que tal vez FTL estropea los sistemas orgánicos e inorgánicos, por lo que una nave espacial tendría que funcionar como "Full Steampunk" y usar temporizadores mecánicos para entrar y salir del hiperespacio.
    Podría explicar la falta de cualquier señal, AGI lo resolverá y permanecerá confinado a su sistema doméstico enviando un "Ping" ocasional a una banda de radio silenciosa determinada por sus propios dispositivos.
    ¿Quizás 11.024 Ghz o en la banda óptica menos afectada por el polvo interestelar sería un buen lugar para comenzar?

  • Marc (@zarzuelazen) dice:

    El juego ha terminado:
    http://www.zarzuelazen.com/CoreKnowledgeDomains2.html

  • teórico doméstico dice:

    Una perspectiva ficticia diferente de la IA publicada por mí en:
    https://homemadetheorist.wordpress.com/2017/07/30/so-god-created-man-in-his-own-image/

  • artificio1 dice:

    Una mentalidad interesante. La IA siempre ha sido interesante, pero nunca le presté atención hasta que comencé a programar. Ahora, mi mayor interés es la programación relacionada con la IA.

    Hasta ahora diría que la sociedad tiene una interpretación bastante laxa de lo que es la IA. Quiero decir, cada vez que juegas un juego contra la computadora, generalmente se considera IA. Y, sin embargo, estos programas son bastante básicos en comparación con la mejor IA "sensible" con la que sueñan muchos en la comunidad interesada.

Alberto Gimenez
Alberto Gimenez

Deja una respuesta

Tu dirección de correo electrónico no será publicada.