#OPINIÓN Asesinato virtual que asusta #14Jun

-

- Publicidad -

“…Al leer esto reafirmamos nuestro convencimiento de que no podemos separar los avances tecnológicos de la naturaleza humana. El uso y el fin de las herramientas no puede ser otro que contribuir al desarrollo de la Humanidad, en consonancia con ella y la función del hombre sobre la tierra…”

Jorge Puigbó

- Publicidad -

La duda o la incertidumbre, son todo lo contrario a certeza o seguridad. Todos hemos sido, en algún momento, sorprendidos en nuestra buena fe al ser sometidos a la manipulación de los medios de comunicación y en especial por los autores de noticias falsificadas que medran en las redes sociales de la Internet. Información y desinformación es lo que cotidianamente recibimos siendo imposible, algunas veces, separar “la paja del grano”, pero aun así debemos insistir en que prevalezca lo veraz. Es una paradoja y siempre lo ha sido, el hecho de que la búsqueda de nuevas armas de guerra con mayor poder de destrucción y de diferentes tipos, liderada sobre todo por los militares de todo el mundo, nos haya conducido a nuevos descubrimientos en beneficio de la Humanidad y que, invenciones concebidas por eminentes científicos en el campo civil se hayan utilizado con fines bélicos, siendo la dinamita de Nobel el ejemplo por excelencia. Es la ambivalencia intrínseca de nuestra naturaleza humana con la cual tenemos que bregar a diario.  

Particularmente ilustradora de cómo estamos en el mundo es una noticia aparecida en diversos e importantes medios y diarios en días pasados y la cual se refiere a un evento realizado el 22 y 23 de mayo, no por su escandaloso contenido sino por el sabor que también dejó su aclaratoria o desmentido dado en términos muy ambiguos. A tal efecto tomamos del diario ABC el titular del 2/6/23: “Un dron militar de EE.UU. controlado por Inteligencia Artificial ‘mata’ a su operador en una simulación: «Usó estrategias altamente inesperadas». Solo las comillas alertan de que se trata de un experimento virtual el cual tuvo unos resultados inesperados por cuanto la máquina, un dron dotado de inteligencia artificial llevó al extremo las instrucciones que se le habían proporcionado y considero que su operador era un factor que conspiraba contra sus objetivos, procediendo sin más a “liquidarlo”. Mucho que pensar y mucha incertidumbre deja esta noticia de la cual nos permitimos copiar otro párrafo: “…Así lo ha revelado el coronel Tucker “Cinco” Hamilton, jefe de Pruebas y Operaciones con Inteligencia Artificial de la USAF (la Fuerza Aérea de los EE.UU.), durante la Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro celebrada hace unos días en Londres. Allí se juntaron 70 oradores y más de 200 delegados del mundo empresarial, militar y académico relacionados con esta materia…”. Quien realizó la conferencia no fue alguien poco preparado, ni un improvisado, fue un coronel líder de un departamento militar altamente sofisticado y de alta seguridad, tampoco el lugar y menos las personas que asistían al evento eran poco importantes porque se trataba de la “Royal Aeronautical Society” en donde se dictaron una serie de conferencias tildadas por algunos como históricas.

Preocupa a los pensadores que, el trabajo de los los militares en su afán de crear armas cada vez más sofisticadas y mortíferas, no tengan en consideración las cuestiones éticas que atañen a su control y uso. Estos planteamientos no son nada nuevo, lo relativamente novedoso es la aplicación de la IA a las armas, este planteamiento viene de tiempo atrás, lo novedoso es que, hoy al unirse a nuevas tecnologías, nos presenta un mundo con un futuro oscuro. Ejemplo de lo que decimos son los experimentos con grupos de drones cuyo desplazamiento y auto conducción se basan en la Teoría del Enjambre, lo cual les permite, al ser dotados con la tecnología adecuada, volar juntos y no colisionar al poder mantener entre ellos una comunicación constante y además una visualización amplia y control del entorno. China ya presento el primer grupo de drones con IA capaces de volar con autonomía por el medio de un bosque de bambúes sin colisionar. La mayor preocupación se refiere a la instalación en los drones de una posible capacidad para detectar y escoger libremente un blanco enemigo, el cual de forma inmediata sería desechado por el resto del escuadrón y así cada cual elegiría el suyo con total independencia del comando humano. Hamilton expresó en el texto de su conferencia: “… sus recelos a confiar en la Inteligencia Artificial y aseguró que la simulación demuestra que «no se puede tener una conversación sobre inteligencia artificial y aprendizaje automático y autonomía, si no se va a hablar de ética…” Al leer esto reafirmamos nuestro convencimiento de que no podemos separar los avances tecnológicos de la naturaleza humana. El uso y el fin de las herramientas no puede ser otro que contribuir al desarrollo de la Humanidad, en consonancia con ella y la función del hombre sobre la tierra. Posteriormente Hamilton, en un comunicado, tratando de suavizar el contenido y su impacto, dijo que la simulación de drones de IA deshonestos había sido un experimento mental, hipotético, basado en escenarios plausibles y resultados probables, en lugar de una simulación del mundo real. «Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible«, oscureciendo más el asunto con esta afirmación. Indudablemente se trataba de una experimentación virtual cuyos resultados fueron sorprendentes. Posteriormente Ann Stefanek, portavoz de la Fuerza Aérea de EE UU, dijo a “Business Insider”: «El Departamento de la Fuerza Aérea no ha realizado ninguna simulación de este tipo con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA», «Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos». La Real Sociedad Aeronáutica británica publicó en su web el resumen de todas las conferencias incluidas por supuesto la coronel Hamilton. La inteligencia artificial tomando decisiones violaría cualquier principio ético: ¿La responsabilidad de quién sería?

- Publicidad -

Un viejo refrán expresa claramente de que se trata: “La culpa no es del ciego sino de quien le da el garrote”, las herramientas las crea el hombre para utilizarlas en su provecho, esto está bien claro y se ha dicho hasta el cansancio a través de la Historia. Una ametralladora tiene un fin: matar, un cuchillo tiene muchas funciones, pero también sirve para agredir, el sujeto que las utiliza es el único responsable de las acciones que se cometan con ellas. Debemos entender que lo que llamamos técnica es la exteriorización y materialización de una cualidad intrínseca al ser humano, una capacidad para actuar que deviene en creación, en la transformación del medio natural, de su entorno, buscando ampliar la supervivencia de su especie. Dice Tzvetan Todorov, en un artículo que tituló ¿Solidaridad natural?, publicado en el diario El País de España el 13 de agosto del 2012: “…El buen salvaje es tan imaginario como el salvaje malo. Los dos tipos de comportamiento tienen su origen en nuestra naturaleza animal, pero el predominio de uno u otro depende de las circunstancias. El error consiste, ante todo, en ignorar uno en detrimento del otro…”.

Jorge Puigbó

Pulsa aquí para apoyar la libertad de expresión en Venezuela. Tu donación servirá para fortalecer nuestra plataforma digital desde la redacción del Decano de la Prensa Nacional, y así permitir que sigamos adelante comprometidos con la información veraz, como ha sido nuestra bandera desde 1904.

¡Contamos contigo!

Apóyanos aquí

- Publicidad -

Más leido hoy

VIDEO | María Corina Machado llegó al estado Portuguesa para participar en diversas actividades #25Abr

La líder opositora, María Corina Machado, se encuentra de visita en el estado Portuguesa, como parte de su gira por Venezuela de cara a las elecciones presidenciales del 28 de julio, en las cuales respalda al candidato de la Plataforma Unitaria Democrática, Edmundo González Urrutia.
- Publicidad -

Debes leer

Hermano de Ronald Ojeda testificará ante la OEA sobre crímenes de lesa humanidad en Venezuela #30Abr

Javier Ojeda, hermano del fallecido teniente militar venezolano Ronald Ojeda, testificará ante la Organización de Estados Americanos (OEA) el próximo viernes 3 de mayo. Su participación se dará en el marco del evento titulado "Buscando la Verdad: Informe del Panel de Expertos y Audiencias de Víctimas", donde se presentará un informe elaborado por expertos internacionales independientes y otros testimonios.
- Publicidad -
- Publicidad -