Tomarse en serio los robots asesinos

Las botas de asesinato son un pilar de la ciencia ficción. Pero a diferencia de la teletransportación y los autos voladores, es probable que veamos a lo largo de nuestras vidas. Lo único que impide que países como Estados Unidos, Corea del Sur, Gran Bretaña o Francia desplieguen una máquina de matar autónoma muy pronto es que probablemente sean ilegales según el derecho internacional humanitario (DIH) actual: las reglas de la guerra.

Pero si suspira con calma que el destino de la humanidad es seguro, piénselo de nuevo. La razón por la que las máquinas de matar independientes son ilegales es básicamente un tecnicismo y, lo que es peor, es un tecnicismo que se basa en el estado actual de la tecnología. La versión corta de la historia, tal como está ahora, es que lo único que hace que las armas para matar robots sean ilegales es que es difícil para un robot contarle a un amigo sobre un enemigo. Cuando la tecnología llega al juicio humano, todas las apuestas están inactivas.

¿Crees que estoy loco? La Oficina de las Naciones Unidas en Ginebra (ONUG), las personas que les traen las reglas de la guerra, fundaron un grupo de trabajo sobre robots asesinos hace tres años, y acaba de publicarse el informe de su reunión de 2016. Ahora es un momento tan bueno como cualquiera para empezar a matar robots en serio.

Ginebra

La Convención sobre Ciertas Armas Convencionales (CCW), también conocida como Convención sobre Armas para Personas sin Hogar, es un acuerdo entre los estados miembros para prohibir el uso de ciertas armas que se consideran demasiado feas o indiscriminadas para ser utilizadas en humanos, incluso en tiempos de guerra. . Estamos hablando de minas terrestres, lanzallamas y (recientemente) armas láser cegadoras.

A partir de 2013, la ONUG decidió investigar si los robots asesinos también deberían incluirse en esta lista. Puede que no le sorprenda que llegar a un consenso internacional sobre un tema de este tipo, mezclando la misma ética, consideraciones militares, tecnología e incluso futurismo, lleve algún tiempo. La Reunión Informal de Expertos de 2016 tuvo lugar en abril y los informes acaban de aparecer (PDF). Es un resumen de alto nivel de las reuniones, pero es una buena lectura.

La UNOG se refiere a los robots asesinos por un acrónimo, por supuesto: Deadly Autonomous Weapons Systems (LAWS), y comienza por darse cuenta de que actualmente no hay LE LAO en uso, por lo que la cuestión de si limitarlos o no es preventiva. De hecho, los LAWS probablemente ahora serían ilegales porque el derecho internacional humanitario requiere todo tipo de actos mortales necesarios y proporcionados a los objetivos militares, y deben poder distinguir entre objetivos civiles y militares.

En este momento, exigir un sistema autónomo para distinguir a los civiles de los militares es un problema difícil, y el juicio moral de lo que es proporcionado puede que nunca sea posible. Consideraciones como estas son las que impiden que LAWS se implemente ahora, pero no creemos que eso signifique que la ONUG está perdiendo el tiempo. Nuestra conjetura es que resolver los problemas de la IA y la autonomía es solo cuestión de tiempo.

AI

Si bien los dispositivos como Elon Musk e incluso los científicos serios se preocupan de que las IA de propósito general se apoderen del mundo con estrategias bastante elaboradas, la realidad es que es más probable que las primeras personas con IA en matar personas estén diseñadas específicamente para hacerlo. Aunque en la actualidad es técnicamente imposible distinguir a un amigo de un enemigo, esta es una tarea mucho más práctica para IA que comprobar por sí mismo que los humanos son débiles y, por lo tanto, necesitan exterminarlos. (O lo que sea.)

Centinela surcoreana Super aEgis II [Source Gizmag]Ya existen sistemas de IA que hacen mucho trabajo de preselección. El centinela automatizado de Corea del Sur, el sistema Super aEgis II, por ejemplo, localiza y rastrea a las personas con sus cámaras IR. Por supuesto, la tarea se simplifica mucho por el hecho de que no se permite a nadie en la zona no militarizada (DMZ) que patrulla, y básicamente cualquiera que camine alrededor literalmente pide que le disparen. Pero, según se informa, el sistema podría se convirtió en completamente autónomo hace unos años. El gobierno de Corea del Sur eligió limitar ese rasgo y mantener a una persona en control.

En una situación más complicada, uno podría imaginarse a la IA entrenada para distinguir a los combatientes por sus uniformes. Basado en estilos significativamente diferentes, o banderas en los hombros o similares, esto no debería ser demasiado difícil de hacer. Es posible que un sistema de este tipo no sea 100% defectuoso, por supuesto, pero siempre que sea muy preciso, podría ser bastante bueno.

People in the Loop, actualmente

Y la cuestión del control humano es una pendiente resbaladiza. Con armas como el avión no tripulado de EE. UU., La pregunta no es si el hombre controla por completo. Ya no existen. El vuelo, la adquisición de objetivos y el seguimiento del dron son todos autónomos. La gente participa solo en el último minuto, confirmando el gol tirando del retículo con un joystick y presionando el botón del obturador. Al igual que con los guardias coreanos, un hombre se mantiene informado, incluso si su participación es muy breve.

Segadora MQ-9

Por encima de este hombre soltero, por supuesto, hay toda una cadena de mando. El operador del dron es ordenado disparar a un individuo. Esto da la responsabilidad de la acción, y se espera que la amenaza de un juicio por crímenes de guerra obstaculice el objetivo no discriminatorio de civiles. Esta cadena de responsabilidad, que hace que algo similar al programa de aviones no tripulados de EE. UU. Sea incluso supuestamente legal, aunque vale la pena señalar aquí de pasada, que este no es un problema resuelto.

Si bien los drones son sistemas controlados a distancia y en su mayoría automatizados, se puede argumentar que están bajo un gran control humano. Pero, ¿qué sucede cuando la contribución humana se reduce aún más? ¿Sigue siendo suficiente, por ejemplo, que una persona cree la lista de IMEI (identificadores de teléfonos móviles) a los que apuntan los drones? ¿Qué pasa cuando las redes neuronales hacen el análisis de red que hace la lista corta de IMEI que pertenecen a los objetivos? Definir la autonomía en estos casos es cada vez más difícil.

El informe de la ONUG imagina otra forma en que el hombre podría salir lentamente del círculo: si su papel se vuelve pequeño y / o lo suficientemente repetitivo, dependen lentamente del juicio de la máquina en lugar de darle un contrapeso. Cualquiera de ustedes que haga clic en un menú emergente personalizado sabe que puede reducirse con bastante facilidad a un autómata. Lo que está en juego es mucho mayor en la supervisión de robots militares, por supuesto, pero el mecanismo es similar.

Preguntas abiertas

Determinar qué constituye un "control humano significativo" de los sistemas de armas automatizados será más difícil en el futuro, a medida que se combinen el progreso tecnológico en la IA y la integración de los sistemas de armas. Los soldados estadounidenses ya están utilizando robots de forma rutinaria para tareas de reconocimiento y destrucción de bombardeos, y las armas existentes, como los Centinelas coreanos y los drones estadounidenses, ya son capaces de una acción letal casi autónoma, a pesar de que están encadenadas deliberadamente.

Matar robots está a la vuelta de la esquina, y la ONUG ha durado tres años hasta ahora y ni siquiera ha desarrollado completamente su definición de DERECHOS, y mucho menos ha tomado medidas para regularlos. ¿Los veremos legales para el campo de batalla antes de que sean prohibidos por la convención? ¡La carrera continúa!

  • Myrddin dice:

    Para empezar, toda la idea de "Reglas de guerra" es absurda. La guerra es * supuestamente * un último recurso para resolver problemas cuando todos los demás intentos diplomáticos racionales han fracasado. Establecer reglas sobre cómo se puede librar la guerra solo sirve para avanzar en el problema, ya que quienes se suscriben a ellas solo tienen una desventaja unilateral en la guerra, sin riesgo de castigo si ganan con dichas tácticas fuera de la ley. De acuerdo como miembro de la población civil, es bueno saber que los países miembros no me pondrán de los nervios si terminamos en otra guerra mundial; sin embargo, eso solo durará mientras un gobierno crea que están ganando. La historia muestra que una vez que un país o grupo se da cuenta de que es militarmente superior, ignorará cualquier prohibición de armas o tratados, códigos de conducta y su instinto humano general de no ser simplemente malvados.

    ¿Cuál es mi punto aquí? En parte para señalar que sin reglas sobre tales instrumentos, su uso es inevitable. También quisiera señalar que incluso si tales instrumentos fueran prohibidos, regulados, etc., cualquier país que no desarrolle activamente tal capacidad eventualmente estará bajo el poder de ellos.

    • Ricardo dice:

      Acordado. 🙂

    • Igor dice:

      Tiendo a no estar de acuerdo. El hecho de que los países civilizados no desarrollen y suministren tales armas reduce severamente la posibilidad de que lleguen a los campos de batalla del tercer mundo y luego a otros lugares. Estoy principalmente feliz de que los terroristas que vienen y traen su alegría a mi país solo tienen AK47 y no tienen láseres cegadores ni gas nervioso.

      • Dax dice:

        De hecho, tienen ambos. El gas sarina es común. El hecho de que algo esté prohibido no significa que la gente no pueda hacerlo.

        Un terrorista particularmente cruel podría comprar un montón de poderosos láseres, hacer una bola de discoteca con ellos y colarse en un cine para encenderlo.

        • Nicolás dice:

          Los AC son más baratos y están más disponibles.

      • Alan dice:

        Sin mencionar que en la mayoría de los conflictos la mayoría de los países se quedan a un lado porque no tienen un interés real en el resultado. Una vez que está claro que un país ha estado furioso por mostrar las reglas militares acordadas, es mucho más probable que otros países salgan de la banca. Eso cambia el cálculo de manera significativa.

        • Dax dice:

          Además, incluso si ganas, todavía tienes que vivir en el mundo de la posguerra. Usar cosas como minas terrestres solo te deja con un desastre humanitario y décadas de limpieza. No tiene sentido que un país invasor arroje bombas de minas, por ejemplo, porque una vez que anexas el lugar, tus propias tropas tropezarán con ellas.

          Las reglas de la guerra son en realidad más numerosas porque la guerra moderna tiende a tener lugar en el suelo de alguien. EE. UU. O ONU o Rusia o China, etc. Pelea en guerras extranjeras o libra sus guerras en países extranjeros y luego vete, dejando que la población local sufra el resultado.

    • Dax dice:

      "Toda la idea de 'Reglas de la guerra' es absurda para empezar. Se * supone * que la guerra es ..."

      Y luego te tropiezas con tu propio argumento y empiezas a dictar reglas de guerra.

    • Hirudinea dice:

      ¡También estoy de acuerdo, "Rules of War" es el oxímoron definitivo!

      • Greg dice:

        Cuántos ciudadanos se sumarían si la imagen militar no se pintara con tan amplios cimientos.

    • dassheep dice:

      La idea general de estas reglas es que son aplicadas por terceros, por lo que si las ignora, tiene más de un enemigo del que preocuparse. Por supuesto, eso no funciona en un conflicto global en el que todos están de lado.

    • halherta dice:

      De acuerdo, se supone que War usa todos los medios necesarios para mejorar tu lado ... sin importar cuán bárbaros, inhumanos, impactantes e incivilizados puedan ser. La era de la caballería murió hace mucho tiempo.

      Estaba equivocado, Las convenciones y tratados que intentan limitar / prohibir el uso de cualquier arma “X” que se considere demasiado inhumana son geniales y nos hacen sentir muy bien con nosotros mismos. Es mejor considerarlas como "sugerencias" cuando hay formas de ganar la guerra que no sean usando un arma "X". Pero cuando no hay alternativas, la naturaleza humana dictará que se use un arma "X".

      • Dax dice:

        Ganar una guerra a toda costa no se trata realmente de la mayoría de las guerras.

        Sólo aquellos que son guiados por principios o por fe, e incluso entonces hace falta un loco loco para empezar. La realidad no son las películas de Bond.

        • halherta dice:

          La Segunda Guerra Mundial no se peleó por la fe ... tal vez se peleó en principio, pero nuevamente se puede argumentar que todas las partes en todos los conflictos usan alguna forma de “principio”; reales o imaginarios, para justificar su adhesión a la guerra.

          Creo que la bomba atómica se usó en Japón, solo para acelerar su eminente derrota / rendición. De hecho, muchos continúan argumentando que Japón se ha visto tan abrumado por la destrucción de las bombas convencionales que se rendirán en unas pocas semanas.

          • 2FTG dice:

            Y durante la Segunda Guerra Mundial nadie usó armas químicas de manera extensiva, a diferencia de la Primera Guerra Mundial.
            Y al final de la guerra, los alemanes fabricaron sarín, soma y tabun nervagent, y estaban completamente armados. Tenían suministros con cientos de toneladas de munición química.
            Pero eligen no usarlos.
            Hay algunas armas que ni siquiera Hitler y los nazis usaron.

  • Cuando estoy aburrido dice:

    Estoy emocionado de que estos robots sean recibidos con la mano equivocada.

    • Dax dice:

      Son robots siniestros.

      • RodgerDodger dice:

        ¡Decir ah! Entiendo. Bien.

      • Dan (otro Dan) dice:

        Si. Eso era bueno.

      • laboratorio de dexter dice:

        Soy un viejo bastardo gruñón cínico que viene aquí solo para ver cómo está Benchoff, pero hoy, hago una pausa para inclinar mi sombrero de fieltro en agradecimiento por tu delicioso escape. Por hoy, usted, señor, gana las redes.

  • anónimo dice:

    Predigo que las reglas reales sobre estos robots se mantendrán cuando cualquier robot de un país mate a sus propios camaradas humanos.

  • Steve dice:

    También siempre me fascinó ...

    Operar un robot para disparar indiscriminadamente a cualquiera y a todos en su territorio está mal, pero lanzar una gran bomba de burro en la misma área que mata a todos en su territorio está bien.

    • Dax dice:

      ¿Sin embargo, lo es?

      Pensé que los bombardeos de alfombra y las armas nucleares se consideran pasos en falso hoy en día.

      • Steve dice:

        Estoy seguro de que cada bomba lanzada sobre una región se hace de esa manera sin verificar que todas las personas de la región estén en guerra. Bomba grande o bomba pequeña, mismo resultado.

        • Dax dice:

          Entonces, ¿qué es todo el alboroto sobre las bombas inteligentes?

          • Steve dice:

            WTF, ¿estás dudando?

            Estoy bastante seguro de que todas esas bombas que vuelan por el Medio Oriente simplemente están "explotando", con tanta gente inteligente como un montón de piedras.

          • Leithoa dice:

            O [smart bombs] come información estúpida y gente que quiere una guerra no violenta, en su lugar bombardean hospitales, bodas y escuelas de niñas.

          • Dax dice:

            "WTF, ¿estás dudando?"

            El hecho de que toda la guerra de bombas inteligentes y videojuegos se venda al público, evitando daños laterales al golpear solo los objetivos necesarios. Es decir, ya no se considera que el kosher mata indiscriminadamente y los militares deben al menos fingir que evitan los objetivos civiles.

          • Steve dice:

            Re: "¿WTF estás preguntando por ???"
            Muy bien, estoy de acuerdo contigo en eso. Perdí tu punto.

            Mi punto fue que las armas convencionales tienen una probabilidad mucho mayor de daño lateral que, al menos teóricamente, las armas supuestamente "inteligentes" que evolucionan.

        • abad dice:

          "Compruebe que todas las personas de la región estén en guerra"

          ¿No se define actualmente "combatiente enemigo" (por los EE. UU.) Como cualquier persona mayor de 16 años? Esto debería ser lo suficientemente fácil para establecer un sistema de visión (medir la altura, lo suficientemente cerca)

          • Dan # 1438459043 dice:

            De hecho, normalmente basta con clasificar a las personas según la masa de metales de hierro que transportan. Sabes esas cosas que reflejan la radiación electromagnética ...

          • hanelyp dice:

            Dan, un brillante observador y guía para el desarrollo de armas inteligentes. Una vez que se dé cuenta de que el enemigo está dominando un área, apunte a un metal de hierro que actualmente es un componente importante de casi todas las armas. Vea venir el robot y no quiera que lo golpeen, déjelo caer y deshágase de un poco de metal de hierro.

            Desafío técnico: identificación remota de metales ferrosos, a diferencia de otros metales.

        • Elliot Williams dice:

          Las bombas, inteligentes o tontas, son malas noticias porque no discriminan. Pero cuando se utilizan contra un objetivo militar (fábrica, aeropuerto, etc.) se consideran aceptables, aunque a menudo capturan a una gran cantidad de civiles. Es una llamada de juicio hecha en un mundo imperfecto.

          OTOH, las bombas que no explotan son PITA. Vivo en Munich, y todavía encontramos bombas de la Segunda Guerra Mundial cada vez que excavan en busca de un nuevo garaje subterráneo o túnel ferroviario.

          El porcentaje de civiles muertos en guerras ha disminuido con el tiempo, lo que es evidencia de tecnología o de la Convención de Ginebra o de ambos. Definitivamente es algo bueno. También hay gente que piensa que reducir el número de guerras también se agrandaría.

          • Dan # 1438459043 dice:

            Hay bombas “mejores”, se puede hacer la tripa y la carga biodegradables y recubrir la tripa con tungsteno para que la explosión sea muy intensa pero corta, el único problema es que las heridas que provocan no son curables. La energía de la reacción química en el explosivo se transmite al polvo en forma de calor y energía cinética, por lo que se obtiene una nube de polvo muy denso y candente que crece rápidamente y que se ralentiza rápidamente debido a la resistencia del aire. El territorio se puede ajustar con mucha precisión, ya que hay pocas posibilidades de que una metralla pueda convertirse en un proyectil de largo alcance que p. Ej. Vuela al otro lado de la calle y mata al niño en la casa de allí, o lo que sea. Te imaginas cómo son las heridas de los cercanos a la explosión, sus cuerpos están llenos de miles de agujas como quemaduras, que son tan numerosas que prácticamente no se pueden curar y su cuerpo queda lleno o el polvo si sobreviven.

  • Ian Lee, sr. (@ ianlee74) dice:

    Teniendo en cuenta las tácticas militares utilizadas por ISIS y otros en esa región donde se visten y viven entre los civiles, creo que es justo decir que incluso las personas no siempre pueden distinguir con precisión al amigo y al enemigo. Dale a un robot acceso a una enorme base de datos de rostros y la capacidad de detectar otros uniformes / armas / etc. y sospecho que no pasará mucho tiempo antes de que los robots puedan distinguir amigos de enemigos mucho mejor que los humanos. ¿Hay algún punto en el que se vuelva inhumano poner a la gente en el círculo?

    • Dax dice:

      Todavía se necesita un hombre para definir al amigo de un enemigo.

      El robot no tiene amigos ni enemigos. Sus operadores tienen.

      • Leithoa dice:

        Ni una sola vez obtienes IA que sea capaz de determinar objetivos. Entonces es el cliché "computadora estropeada". Toda persona que interfiera con sus objetivos es marcada para la muerte como "mala".

    • Elliot Williams dice:

      Buena pregunta.

      Uno de los puntos mencionados por UNOG fue que los robots / IA, por muy precisos que sean, no viven y, por lo tanto, no tienen base para tomar decisiones (morales) sobre si quitar o no una vida. (¡En el fondo!) Simplemente no comprenden las implicaciones. Desde este punto de vista, siempre será inhumano sin personas.

      • Kratz dice:

        Si no se les permite matar, creo que las armas autónomas pueden ir a medios no letales. Redes, espuma pegajosa, dardos Taser, sedantes, armas de sonido, luces cegadoras (no constantes). Eliminaría la cuestión moral (en su mayor parte, lo no letal todavía puede ser peligroso), y también es un problema de ingeniería mucho más interesante.

        • Ian Lee, Sr. (@ ianlee74) dice:

          @Kratz, o tal vez necesitemos robots altos que solo atrapen a los humanos y los sostengan para su posterior procesamiento. Me viene a la cabeza una escena de la Guerra Mundial ...

      • Ian Lee, sr. (@ ianlee74) dice:

        Puedo entender eso hasta cierto punto. Pero, básicamente, creo que es una reprimenda, así que culpe a alguien cuando alguien sea identificado erróneamente. Supongamos que llegamos a un punto en el que el reconocimiento facial tiene una precisión del 99% y construimos una base de datos facial que incluye todos los más deseados, y esta base de datos básicamente sirve como una lista de muertes. Si un programa de robot puede ingresar a un área e identificar esos objetivos con una precisión del 99%, entonces no vería ninguna razón para que un humano (que probablemente sea menos preciso) confirme que se debe iniciar la matanza. ¿No sería eso pedirle a Gary Kasparov que confirme los movimientos de Big Blue en una partida de ajedrez?

  • russdill dice:

    Ya tenemos sistemas de armas autónomos que seleccionan objetivos sin intervención humana https://en.wikipedia.org/wiki/Phalanx_CIWS

    “Dependiendo de las condiciones del operador, el sistema se iniciará automáticamente o recomendará un incendio al operador. […] CIWS no reconoce a un amigo o enemigo que lo identifique, también llamado IFF. CIWS solo tiene los datos que recopila en tiempo real de los radares, para decidir si el objetivo es una amenaza y ocuparlo. "

    • rgrokett (@rgrokett) dice:

      Supongo que esos pilotos rusos tuvieron suerte de que los CIWS no se desplegaran ni operaran cuando llamaron a nuestras naves.

      "El sistema de armas de proximidad Phalange (CIWS) se desarrolló como la última línea de defensa automática de armas (defensa final o defensa puntual) contra misiles antibuque ... y aviones de ataque, incluidos los navegadores de maniobra y alt-gy".

      • russdill dice:

        Habría adivinado que no estaban activados en ese momento. La llegada de aviones rusos no sería Sorprender y disparar a uno sería malo, muy malo. El artículo enumera un incidente en el que un avión estadounidense fue derribado por error por un sistema japonés porque se habilitó demasiado pronto (se asumió que dispararía el dron remolcado en lugar del avión remolcado en sí), por lo que este tipo de cosas ciertamente puede suceder.

        • corredor en línea dice:

          La aeronave rusa no utilizó un radar objetivo ni ningún otro sistema que indicara un ataque.
          Si hizo "el barco" (DESTRUCTOR DE MISILES Guiado) puede dar Sukhoi Su-24.

          Diría que hay muchos otros sistemas que podrían ser autónomos: defensa aérea, minas marinas, torpedos, minas terrestres, terroristas suicidas fanáticos religiosos y soldados borrachos.

    • lwatcdr dice:

      Los robots mortales han existido desde la Segunda Guerra Mundial. Los torpedos guiados y el V2 son solo dos ejemplos. Hoy en día, las minas AIM-120 y Captor son ejemplos modernos.

  • Arrojar dice:

    Es por eso que comenzaron nuestra temporada local de FIRST Robotics en la incubadora de tecnología SOCOM. Este es el futuro de los sistemas de armas y los generales quieren que los niños nerd les ayuden a construir mejores asesinos.

  • Dan # 1438459043 dice:

    Incluso si no hay ningún hombre al tanto cuando el Mayor General Catástrofe interrumpe el despliegue y se cometen crímenes de guerra, ella o sus líderes políticos seguirán siendo responsables utilizando los marcos legales internacionales existentes, por lo que existen los mismos límites sobre los peligros de estas nuevas armas como hay en algunas armas existentes.

    • Elliot Williams dice:

      Responsabilidad. No me he metido mucho en eso, pero hay algunas dudas sobre lo que sucede en caso de un mal funcionamiento que mata a inocentes, si la cadena de mando es responsable o la empresa que produjo el sistema de armas.

      ¿Es más difícil entrenar adecuadamente a sus soldados o codificar correctamente un programa de reconocimiento de imágenes?

  • DD dice:

    ¿Qué pasa cuando las personas comienzan a enfrentar amenazas que solo un robot puede capturar o contrarrestar de manera realista? ¿Cosas que suceden demasiado rápido para usarlas para percibir o participar? Por supuesto, eso ya es cierto y existe hasta cierto punto, como el comentarista que educó al Falangan CIWS (robot para disparar misiles). Sin embargo, nadie menciona ese ángulo cuando se habla de la participación de los robots en armas y suministros.

    • Dan # 1438459043 dice:

      Existe cierta autonomía (automatización) en las armas durante mucho tiempo.

      http://www.glennsmuseum.com/bombsights/bombsights.html

  • fm` dice:

    La IA es una herramienta. Muy complicado, muy poderoso, pero una herramienta. El peligro surge porque será más fácil crear un sistema robótico que parezca que está haciendo el trabajo, sin manipular cajas de esquina que son difíciles de ver durante la fase del proyecto.

    Imagínese r / shittyrobots y sistemas telefónicos automáticos con pistolas.

  • diegozuccato dice:

    ¿Alguien recuerda "Kunetra la ciudad mortal" (IIRC)? ¿O Kyashan, donde la IA, planeada para defender el medio ambiente, decide que la raza humana es el mayor enemigo del medio ambiente?

  • Dan (otro Dan) dice:

    Dos cosas:

    Los expertos en inteligencia artificial dijeron que alphaGo está ausente durante 10 años, 6 meses después tenemos alphaGo. Estas personas tienen una reunión en noviembre de 2015 y solo ahora este informe vacío llega a su fin. Estas personas no saben en absoluto lo que imaginan que pueden controlar.

    También:

    Y supongo que "muchos"> "varios" aquí ..

    “18. Muchas delegaciones consideraron éticamente inaceptables las máquinas de trabajo para decidir sobre la vida o la muerte de una persona sin ninguna intervención humana. Varias delegaciones señalaron que no tenían intención de desarrollar o adquirir tales sistemas de armas. "

    Me gustaría saber qué delegaciones tienen la intención de desarrollar sistemas que consideran éticamente inaceptables.

    • Elliot Williams dice:

      Algunos delegados compartieron sus sospechas sobre el estado / progreso de la IA. Esa es la razón de tener un tratamiento especial para las LEYES sobre las restricciones ya existentes. ¿Las leyes (completamente precisas) siguen siendo inmorales o inhumanas?

      Re: muchos contra varios. Tiene razón y sospecho que es una mala elección de idioma. ¡La ONUG necesita que el equipo de comentarios de La-Tecnologia haga su revisión!

      • Dan (otro Dan) dice:

        Si son "completamente precisos" para distinguir entre "amigo" y "enemigo", en mi opinión, son conscientes en el mismo grado (y creo que la conciencia perdura) que cualquier ser humano que obedezca esas órdenes. Entonces es tan moral / humano como el asesinato.

  • Andy dice:

    “18. Muchas delegaciones consideraron éticamente inaceptables las máquinas de trabajo para decidir sobre la vida o la muerte de una persona sin ninguna intervención humana. "

    Hablemos de coches autónomos y boxes en las esquinas.
    https://la-tecnologia.com/2015/10/29/the-ethics-of-self-driving-cars-making-deadly-decisions/

  • Hunaina dice:

    Estupendo.

  • halherta dice:

    La guerra es un cohete
    https://ratical.org/ratville/CAH/warisaracket.html

  • == dice:

    > la guerra gobierna kek
    "Todo es solo amor y guerra"

  • Pigo dice:

    Si bien la humanidad todavía acumula alrededor de 4000 ojivas nucleares activas "solo para asustar un poco al enemigo" (además de las otras> 10000 ojivas nucleares "conservadas"), la amenaza de algunos robots armados con ametralladoras o lanzacohetes parece un poco baja a mi. Especialmente cuando se considera lo difícil que sería en realidad desarrollar y mantener factible un robot de este tipo en una zona militar activa, en comparación con la simple tarea de lanzar un arma nuclear para posiblemente erradicar millones de civiles, ciudades o incluso un país pequeño casi de inmediato ". con solo presionar un botón ".

Óscar Soto
Óscar Soto

Deja una respuesta

Tu dirección de correo electrónico no será publicada.