Departamento De Policía De Dallas Intenta Bloquear la Liberación Del Informe Relacionado con el Robot-Bomba
Por Derrick Broze
El Departamento de Policía de Dallas está tratando de bloquear la liberación de información relacionada con el uso de un robot de bomba que se utilizó para matar al francotirador que mató a cinco agentes en julio.
El 7 de julio, Miqueas Xavier Johnson atacó a un grupo de agentes de policía en Dallas, Texas, matando a cinco agentes e hiriendo a otros dos. Johnson fue supuestamente molesto por los disparos de la policía de los hombres negros y quería apuntar a los oficiales blancos.
Después de horas de negociaciones, el jefe de policía de Dallas David Brown decidió enviar en un robot armado con un ladrillo de explosivo C-4.
El robot hizo detonar la bomba cerca de Johnson en el campus de El Centro College en el centro de Dallas. Johnson murió en la explosión.
"Nuestro robot bomba detonó una bomba donde estaba el sospechoso," dijo Brown en el momento."Otras opciones hubieran sometido a los oficiales de gran peligro."
Esto marcó la primera vez que un departamento de policía en los Estados Unidos utiliza un robot para matar a un ciudadano estadounidense.
Tras la muerte de Johnson, las autoridades municipales y de policía han sido inundados con peticiones de información pública de los periodistas que deseen más información sobre cómo funciona el robot.
La ciudad de Dallas está tratando de suprimir los datos. Courthouse Noticias informó sobre la situación:
Funcionarios del Departamento de Policía de Dallas quieren bloquear la liberación de información "muy íntima o embarazoso" en relación con el uso de un robot de desactivación de bombas para matar a un francotirador que mató a cinco oficiales el mes pasado, diciendo que no es una preocupación legítima al público.Las autoridades municipales pidieron Procurador General de Texas Ken Paxton de opinión consultiva el 19 de julio, en respuesta a al menos 17 solicitudes de información pública por periodistas. Las solicitudes quieren tener acceso a la cámara del robot y el cuerpo material de archivo, entre otras cosas.
En una carta a Paxton, Asistente Fiscal de la Ciudad P. Armstrong sostuvo que la información solicitada "está protegida por la privacidad de la ley común", que protege la información que es "muy íntima o embarazoso, de tal manera que su lanzamiento sería muy desagradable para una persona razonable , y es motivo de preocupación no es legítimo para el público. "la carta también afirma que los datos solicitados son confidenciales bajo la ley y podría poner en peligro los oficiales de trabajo encubierto.
"La divulgación de la información solicitada, que incluye dicha información podría poner en peligro la seguridad y el bienestar de estos oficiales y los informantes confidenciales utilizados por DPD," dice la carta.
"A su vez, se puede someter a una represalia por delitos alcanzado desde la ubicación si se da a conocer esta información."
Tras la muerte de Johnson, una serie de expertos de libertades civiles levantó las alarmas sobre el establecimiento de un precedente para la aplicación de la ley matar a un sospechoso sin un juicio.Marjorie Cohn, profesora emérita de la Facultad de Derecho Thomas Jefferson y editor y colaborador de aviones no tripulados y ejecuciones selectivas: legal, moral y geopolítico Problemas , dijo la policía de Estados Unidos va en "la dirección equivocada."
"El hecho de que la policía tiene un arma como esta, y otras armas como aviones y tanques, es un ejemplo de la militarización de la policía y fuerzas de seguridad, y va en la dirección equivocada", Cohndijo Common Dreams después del incidente.
" debemos ver a la policía usando técnicas humanas, interactuando en un nivel más humano con la comunidad, y aunque sin duda los agentes de policía no merecen morir, esto es una indicación de algo mucho más profundo en la sociedad, y ese es el racismo que impregna el los departamentos de policía en todo el país. Es una verdadera tragedia ".
Seth Stoughton, un ex oficial de policía y profesor adjunto de Derecho en la Universidad de Carolina del Sur, dijo a The Atlantic que el robot bomba representa "un nuevo horizonte para la tecnología de la policía" y "plantea algunas cuestiones nuevas."
La Ciudad de Dallas y la Policía de Dallas están cansados de que el público pueda echar un vistazo detrás de la cortina del secreto de la policía.
Hemos entrado en una nueva era en la que el gobierno de Estados Unidos asesina a los ciudadanos norteamericanos a través de aviones no tripulados en las naciones extranjeras y ahora, tenemos el primer ejemplo de la policía local utilizando un robot armado con una bomba a punto de explotar un ciudadano estadounidense.
¿De dónde viene la tecnología a partir de ahora?
¿Podemos confiar en la policía y el gobierno cada vez más tiránico de ejercer tal tecnología? ¿Hay que poner de valores en sus promesas de usar sólo los aviones teledirigidos y robots cuando se han agotado todas las otras opciones?
Deje sus pensamientos a continuación.
Derrick Broze es un periodista y activista de la libertad de investigación. Él es el periodista de investigación de plomo para ActivistPost.com y el fundador de la TheConsciousResistance.com . Síguelo en Twitter .Derrick es el autor de dos libros: La resistencia consciente: Reflexiones sobre la anarquía y la Espiritualidady encontrar la libertad en una época de confusión .
Derrick está disponible para entrevistas. Por favor, póngase en contacto con Derrick@activistpost.com
En este artículo pueden ser publicados libremente, en parte o en su totalidad con el autor atribución yenlace de la fuente .
Lea también: Es oficial: los robots son ahora hiriendo y matando a seres humanos
Es Oficial: Los Robots Son Ahora Hiriendo Y Matar A Los Humanos
Por Nicholas West
A pesar de que expertos en robótica, las universidades y las luminarias de tecnología sonar la alarma por la posibilidad de un futuro lleno de robots asesinos , evidentemente, esta tecnología ya ha llegado ... menos la ética rigurosas.
No puede haber un debate sobre el uso de robots asesinos en el ejército. Estamos en medio de una admitido carrera armamentística mundial de aviones no tripulados en el que hay bajas civiles masivas que se producen dentro de un marco legal de Estados Unidos engañoso que tiene hasta el momento ni siquiera excluidos sus propios ciudadanos sea blanco de asesinato.
También hay una gran cantidad de sistemas terrestres y marinas que son igualmente letal y se someten a prueba en ejercicios militares conjuntos masivos .
Una y otra vez hemos visto que los acontecimientos militares - normalmente empleada por primera vez "allá" - finalmente goteo hacia abajo en la vida cotidiana de los ciudadanos en el hogar.
A veces, la tecnología es beneficioso, más a menudo no lo es. Cuando las armas de guerra se transmiten a la policía local, por ejemplo, no podemos estar sorprendido cuando estamos pronto teniendo debates sobre "la policía militarizada" en los Estados Unidos.
La inteligencia artificial es otra área que ha dado paso a que las tecnologías de doble uso, tales como la vigilancia y la guerra de aviones no tripulados, los guardias de seguridad del robot y la policía, y los vehículos de auto-conducción del personal militar y la población civil.
En todos los casos estamos viendo malas aplicaciones perturbadores, así como los fallos del sistema en firme.
De hecho, estamos viendo muchos "primeros" que amenazan con convertirse en una tendencia si no se aborda y tiró de las riendas rápidamente.
Hace tan sólo unas semanas fuimos testigos de la primera muerte humana informado de un vehículo auto-conducción cuando los sensores de piloto automático de Tesla no lograron detectar un remolque de tractor en sentido contrario, matando al piloto de pruebas.
Anteriormente, había signos ominosos de este potencial, cuando los coches auto-conducción de Google primero tenían fallas que dieron lugar a ellas siendo golpeados, pero más tarde en realidad causaron un accidente con un autobús.
Aparte de los desafíos técnicos, se han planteado cuestiones sobre la ética y la moral que serán necesarios en ciertas situaciones fatales.
Esa zona, también, está levantando las cejas - es adecuado para sacrificar la vida de algunos de salvar a otros?
Las normas que ya están llegando a ser moralmente compleja. Chris Urmson de Google X, director de vehículos auto-conducción de la compañía, dijo que la compañía estaba tratando de trabajar a través de algunos problemas difíciles. Donde a su vez - hacia el niño que juega en la carretera o sobre el lado del paso elevado?Google ha llegado con sus propias leyes de la robótica para los coches: "Tratamos de decir, 'Vamos a tratar más difícil de evitar que los usuarios vulnerables de la vía, y más allá de que tratar más difícil de evitar otros vehículos, y luego más allá que tratar de evitar las cosas que que don 't se mueven en el mundo', y luego de ser transparente con el usuario de que esa es la forma en que funciona ", dijo Urmson. ( Fuente )
Estos incidentes y dilemas han producido hasta el momento durante el entrenamiento y las pruebas, lo que podría mitigar algunos de la gravedad, pero sin embargo, apunta a algunos defectos genuinos, que impedirían que estos vehículos sean ampliamente empleado.
Como rápida a un lado, es esencial tener en cuenta que Isaac Asimov ofreció al mundo sus "Tres Leyes de la Robótica" en 1942; a pesar de que aparecieron en la ficción, que ya han sido ampliamente reconocida dentro de la corriente principal de la robótica, y en su forma original son de tal perfección simple que realmente no hay excusa para los errores que estamos viendo:
- Un robot no debe dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.
Sin embargo, la inteligencia artificial ya se ha ganado un punto de apoyo en todo tipo de industrias de servicios del mundo real, así como la seguridad, a pesar de que no fuera un tramo de imaginar los mismos desafíos y peligros que han aparecido con los vehículos de auto-conducción y otros sistemas autónomos .
Un robot de marketing fue noticia por haber "se perdió", dejando a su área de ensayo y vagando en una intersección de tráfico ocupados en Moscú, Rusia.
Se minimiza como "una pequeña aventura" por el dueño del robot, pero el hecho es que un robot autónomo no pudo mantener su rumbo y terminó planteando una amenaza real para la seguridad del conductor humano.
La verdad es que los investigadores están todavía en el proceso de desarrollo de los sistemas de sensores a prueba de tontos para los robots para reconocer su entorno, sin embargo, siguen siendo desplegado en el mundo real.
Un ejemplo: el robot de seguridad.
Robots de seguridad se han convertido en un área de interés especial para los desarrolladores.
Por lo menos desde 2013 ha habido una iniciativa mundial en seguridad robótica se centra en las prisiones, centros de atención , escuelas, y centros comerciales. Sin embargo, un reciente encuentro con seguridad del centro comercial robótico no fue bien para un niño en el centro comercial de Stanford en California.
Los padres de un niño que fue derribado y atropellado por un robot de seguridad en el centro comercial de Stanford quieren correr la voz para evitar que otros se lastime.Se dijo que la máquina es peligroso y temen otro niño se lastime.robot de seguridad del centro comercial de Stanford se encuentra 5 'de altura y pesa 300 libras.Se divierte a los compradores de todas las edades, pero el jueves pasado, 16 meses de edad Harwin Cheng tenido una colisión aterradora con el robot. "El robot golpeó la cabeza de mi hijo y cayó boca abajo en el suelo y el robot no se detuvo y siguió moviéndose hacia adelante," la madre de Tiffany Harwin Teng dijo....."Tal vez ellos tienen que trabajar en los sensores más. Tal vez dejó de detectar o podría ser defectuoso o algo así ", dijo Sharma Ankur comprador.Los padres de Harwin dicen lo que es aún más preocupante es que un guardia de seguridad les dijo otro niño fue herido desde los mismos días antes de robot.( Fuente ) [énfasis añadido]
Aquí es que robot de seguridad en acción:
Pero esto todavía palidece en comparación con lo que sucede cuando los robots de seguridad se dan las armas ... que es exactamente lo que ocurrió en el reciente tiroteo Dallas.
Como informa Claire Bernish en su artículo "Decisión de hacer estallar ciudadano de los EE.UU. Con Robot fue improvisado en menos de 20 minutos," un robot que se utilizó anteriormente con la intención benigna para llegar a una amenaza de suicidio fue modificado para convertirse en un instrumento de muerte equipada con una libra de explosivo C-4:
Fabricado por el complejo militar-industrial querida , Northrop Grumman, este robot táctico "es impulsado por un ser humano a través de control remoto, pesa 790 libras y tiene una velocidad máxima del 3,5 mph," como el Washington Post describió . "Lleva una cámara con un zoom óptico de 26x y digital de 12x. Cuando el brazo está totalmente extendido, se puede levantar un peso de 60 libras. La "mano" en el extremo del brazo puede aplicar un agarre de aproximadamente 50 libras de fuerza ".Curiosamente, el robot de $ 151.000 táctica proporcionó un servicio mucho más afirmación de la vida hace un año.De acuerdo con Metro Reino Unido , el mismo modelo una vez ayudó a la Patrulla de Caminos de California cuando las negociaciones con un hombre que amenaza con suicidarse saltando desde un puente de San José-fallado mediante la entrega de una pizza.....En sólo un año, un robot de pizza-entrega con el potencial de salvar la vida humana durante amenazas de bomba o situaciones similares se convirtió en un desplegado casualmente de armas, debido proceso de desmonte de la guerra contra un ciudadano de Estados Unidos.
Ahora nos queda más que preguntarse qué más es en el horizonte como la inteligencia artificial avanza hasta el punto en que los seres humanos se sienten obligados a tomar por completo la correa fuera de esta tecnología incluso en la guerra y la seguridad nacional.
China ya está preparada para dar rienda suelta a su ejército de robots como un medio de lucha contra el terrorismo . Y ahora estamos siendo advertidos por las Naciones Unidas de que los terroristas podrían muy bien establecer su propio robot asesino ejército ... que presumiblemente nos obligan a contrarrestar eso con la robótica aún más letales en otra carrera de armamentos.
Parece que podríamos tener que estar preparado para llegar al punto de partida en esta marcha hacia la tecnología que se utiliza para proporcionar seguridad - en la raíz misma de esta unidad siempre será un componente humano. Hasta que resolvemos los problemas que rodean nuestra propia aplicación indebida de la moral y la ética (nuestros militar real, la policía y herir a la seguridad y matar a otros seres humanos después de todo), que podría estar destinado únicamente para proporcionar una actualización más letal de nosotros mismos.
Nicholas West escribe para ActivistPost.com .
Este artículo se puede publicar en parte o en su totalidad con el autor atribución y enlace de la fuente .
No hay comentarios:
Publicar un comentario