Revista de Marina
Última edición
Última edición
El mundo esta inmerso en la cuarta revolución industrial, causada por el exponencial aumento de la capacidad computacional, lo que ha generado un gran impulso a la inteligencia artificial y el desarrollo de nuevas aplicaciones informáticas tales como Big Data y Bussiness Intelligence e Internet de las cosas.

Primer lugar categoría Tecnología del concurso de ensayos “Bicentenario de la Armada de Chile”

¿Que duda cabe que el siglo XXI será recordado como la era de los datos digitales?

Es tan alta la generación de datos digitales en la actualidad que el 90% de los datos existentes a nivel mundial han sido creados en los últimos dos años y entre el 2015 y el 2022 se espera que el universo de datos disponibles se multiplique en 300 veces.

Se prevé que en el año 2025 se contará con una cobertura global de internet (provista por cientos de satélites de baja altura) que posibilitará que toda la población mundial, más de 5.000 millones de personas, puedan conectarse a esta red simultáneamente.

En el año 2020 Chile será el primer país sudamericano en instalar una red telefónica celular 5G, que poseerá una rapidez de transmisión de datos 20 veces superior a la actual 4G, generando un gran impulso a la internet de las cosas, la telemedicina, etc.

Los millones de datos que se generan cada segundo proceden de diversas fuentes: llamadas telefónicas, transacciones bancarias, búsquedas en Google, datos de GPS, imágenes o videos subidos a YouTube, correos electrónicos e interacciones en las redes sociales como Facebook o Twitter. Otra cantidad importante de datos procede de sensores que monitorean equipos que se enlazan por internet.

Los smartphones actuales tienen, en promedio, 20 sensores, que pueden entregar datos continuamente y tienen más capacidad de procesamiento que todo el poder computacional que utilizó la NASA para llevar al hombre a la luna a fines de la década de 1960.

Facebook cuenta con más de 1.000 millones de usuarios. Cada minuto se envían más de 200 millones de correos electrónicos, se realizan 4 millones de búsquedas en Google y se suben 360 horas de videos a YouTube.

Chile es el país con mayor penetración de internet y lidera en el número de smartphones y de computadores por habitante en Sudamérica.

La cuarta revolución industrial

Estamos en medio de la cuarta revolución industrial, que es una nueva manera de organizar los medios de producción, hacer negocios y relacionarse a nivel mundial basados en una serie de nuevas tecnologías de la información, tales como Business Intelligence (BI), Big Data, robótica, Inteligencia Artificial (IA) e internet de las cosas.

Su origen es el exponencial aumento de la capacidad computacional, cumpliendo la ley de Moore,* pasando de 10.000 transistores por chip en 1975, a 1.000 millones el 2015, es decir un aumento de 100 mil veces.

A lo anterior hay que agregar la masificación del uso de internet, aumentando de 361 millones de usuarios en el año 2000 a 3.566 millones de personas el 2016.

La Inteligencia Artificial (IA)

La IA inició su desarrollo hace ya casi 70 años, cuando se logró quebrar los códigos de la máquina criptográfica alemana Enigma en la Segunda Guerra Mundial.

La IA se logra con la combinación de técnicas y algoritmos que tienen el propósito de crear máquinas que tengan capacidades de inteligencia equivalentes a las de un ser humano, lo que se logra digitalmente utilizando redes informáticas que emulan el funcionamiento de las redes neuronales del cerebro.

Esta nueva capacidad, permite que los sistemas que cuenten con IA puedan aprender y mejorar sus capacidades en base a protocolos con los cuales han sido diseñados.

El gran impulso reciente de la IA se logró por tres factores: la aparición de nuevas técnicas para entrenar a redes neuronales artificiales, el aumento de documentos, imágenes y videos disponibles para entrenamiento de estas redes y, finalmente, gracias al exponencial aumento de la capacidad computacional, ya mencionada.

En los próximos años seremos testigos de que la aplicación de la IA crecerá en forma sustancial en equipos de uso personal, en los procesos logísticos y en los negocios, teniendo un impacto muy superior a la aparición de internet y la computación móvil.

Las principales aplicaciones de la IA las encontraremos en la logística y el transporte; en la medicina, en la comercialización de productos masivos, en la optimización del manejo de inventarios; en los servicios financieros, en la fabricación en serie y en la detección temprana de piezas defectuosas que pueden ocasionar fallas mayores a una máquina o sistema.

Ejemplos prácticos de la IA los encontramos en las recomendaciones de Google al utilizar internet, en Facebook al reconocer fotos, en la medicina al haber logrado diagnosticar el cáncer con un 99% de acierto al examinar radiografías y mediante el análisis de muestras de sangre de una persona.

Andrew Ng, precursor moderno de la IA, de la Universidad de Stanford (El País, 2017), expresó: “Esta es la mayor revolución desde la introducción de la electricidad hace 100 años. No veo ningún sector que no vaya a ser transformado en el mediano plazo.”

La cantidad de dinero que se está invirtiendo en IA está aumentando sobre el 50% anual. Chile invirtió US $ 500 millones en estas tecnologías en el 2017, y su tasa anual está aumentando en un 18%.

Los sistemas con IA permitirán lograr un nuevo incremento en la productividad laboral humana, impulsando con ello el crecimiento económico y eficiencia de las organizaciones que adopten estas nuevas tecnologías.

La empresa norteamericana Accenture pronosticó que la IA podría llegar hasta duplicar las tasas de crecimiento económicas de los países desarrollados hacia el año 2035. De cumplirse esta predicción, el crecimiento potencial de EE. UU. aumentaría del 2,6% actual a un 5,2% anual.

También se ha evaluado el impacto que tendría la IA en el mercado del trabajo, siendo famoso un estudio de la Universidad de Oxford, publicado el 2013, que estableció que en el largo plazo el 47 % de los empleos actuales de EE. UU. corren el riesgo de automatizarse y de suprimirse, al menos en su forma actual.

En el año 2015, el economista chileno Sebastián Edwards pronosticó que en el año 2034 la mitad de los empleos de Chile serían reemplazados por máquinas inteligentes.

Pronósticos científicos recientes* indican que máquinas inteligentes podrán traducir idiomas mejor que los seres humanos alrededor del año 2024; conducir camiones con más eficiencia el 2027; y serán capaces de atender como dependientes en una tienda el año 2031.

En la década del 2060 se podrían fabricar robots con capacidades superiores a las de los seres humanos en algunas áreas y serán capaces de realizar tareas sin ayuda, de forma más eficiente y barata que las personas.

El Instituto McKinsey, un Think Tank de estudios de carácter global, afirmó que:

La revolución de trasformación de la sociedad global por efecto de la IA está sucediendo 10 veces más rápido y a 300 veces la escala, es decir con un impacto aproximado de 3.000 veces, lo que fue la revolución industrial del vapor.*

Internet de las cosas

El Internet de las Cosas, es un concepto que nació en el Instituto de Tecnología de Massachusetts de EE. UU. Se trata de una revolución en las relaciones entre los objetos y las personas, o entre los objetos que se conectan entre sí mediante internet, compartiendo datos e informaciones en tiempo real.

Bastará con integrar un pequeño chip en cualquier máquina, del lugar de trabajo, de la casa o de la ciudad, para transmitir información a partir de él, constantemente.

Se calcula que en el año 2020 existirán entre 22.000 y 50.000 millones de dispositivos conectados a internet, proporcionando a las personas (y sistemas) una serie de servicios y aplicaciones inteligentes sin precedentes.

Si una persona se conecta a internet, le cambia la vida, pero si las cosas y sistemas se conectan, es el mundo que nos rodea el que cambia.

Big Data*

En el año 1997 se publicó el primer artículo científico definiendo este término. A partir del 2010 el interés por esta área creció en forma exponencial, debido a la drástica reducción de costos computacionales en la última década (a una milésima parte el valor de la memoria, y a la centésima parte la capacidad de proceso computacionales).

Según los especialistas, los datos son equivalentes al petróleo, no solo en el sentido económico, sino también porque es necesario refinarlos para que aporten su valor.

El término big data surge cuando la diversidad, complejidad y gran volumen de los datos que se están produciendo, almacenando y analizando actualmente requieren de nuevas arquitecturas, algoritmos y técnicas de análisis para extraerles el conocimiento útil que esos datos esconden.

Esta complejidad se expresa en la cuatro V: el Volumen o cantidad de datos que se están generando, la Velocidad con que los datos se generan, trasmiten y analizan, la Variedad de los tipos de datos (texto, imagen, video, etc.) y la Veracidad o el valor de los datos, minimizando o eliminando la incertidumbre que se tiene de ellos, para no generar un conocimiento sesgado.

El empleo de técnicas de análisis de big data está causando profundas revoluciones económicas, políticas y sociales, modificando en forma sustancial la forma en que se hacen los negocios y creando algunos completamente nuevos.

El principal uso del big data es lograr una mejora sustancial en la capacidad de efectuar pronósticos sociales y técnicos. Estas predicciones permiten anticipar la demanda de algunos productos o servicios, mejorar las ventas a través de incentivos y optimizar el mantenimiento preventivo de las máquinas, evitando fallas catastróficas.

En la salud se puede utilizar para efectuar una medicina personalizada, predictiva y participativa; también juega un papel fundamental en la investigación científica.

El big data también tiene aplicación en la sociología, las ciencias políticas y en la inteligencia militar, permitiendo efectuar vigilancia del entorno mediante procesos proactivos de capturas masivas de datos, lo que permite la generación de inteligencia, siendo sus principales objetivos los que se indican:

  • Identificar cambios en el
  • Reducir la incertidumbre y los riesgos en los procesos de toma de
  • Dilucidar posibles evoluciones de una situación
  • Identificar nuevas
  • Conocer mejor a la competencia o al adversario.

De esta forma, la vigilancia utilizando big data, combinada con técnicas prospectivas permiten obtener inteligencia económica, política, estratégica o militar de alto valor.

Las limitaciones del big data son las que se indican:

  • No permite detectar comportamientos individuales o minoritarios que se salgan de la media.
  • Es capaz de detectar correlaciones, pero no causalidad de los eventos.
  • Los resultados obtenidos tienen una validez temporal.
  • No todo lo que se sucede en el ámbito social se puede predecir.

La robótica

El continuo abaratamiento del costo de los robots experimentado en los últimos años, provocará en un futuro no muy lejano que la fabricación masiva de productos cambie drásticamente respecto de lo que conocemos hoy. Lo robots actuales son mucho más fáciles de programar, son más rápidos y confiables que los de antaño.

La robótica ya es el principal motor de la mejora de la competitividad y flexibilidad de las industrias de fabricación a gran escala.

En el año 2010 se vendieron 120.000 robots, en el año 2014 y casi 300.000 robots en 2017 a nivel mundial.

Se ha pronosticado que al año 2026 la inversión en robots aumentará a US $ 70.000 millones, comparados con los US $ 28.000 millones actuales.

El número de robots por cada 10.000 trabajadores es el que se indica: China, 30; EE. UU., 162; Alemania, 282; Japón, 323 y Corea del Sur, 437. El presidente Trump dispuso en EE. UU. la depreciación instantánea de su valor a los empresarios que adquieran robots, con lo cual se acelerará su adopción.

En la batalla por la productividad económica los robots serán la clave diferenciadora.

Business intelligence*

Business Intelligence (BI) es una categoría general de aplicaciones y tecnologías que permiten recolectar, almacenar, analizar y proveer acceso a datos que permiten adoptar más rápidas y mejores decisiones.

El ámbito de gestión de BI incluye las actividades de apoyo a la toma de decisiones, consultas y reportes, análisis en línea de procesos, análisis estadísticos, pronósticos y minería de datos.

La BI tiene tres componentes: 1) Las bases de datos computacional, 2) Las herramientas utilizadas para visualizar y manipular los datos, efectuar minería de datos y analizarlos, y 3) El sistema de monitoreo y visualización de la información provista en un cuadro de mando integral o equivalente.

La minería de datos es un campo multidisciplinario orientado a descubrir nuevos conocimientos en grandes bases de datos, utilizando estadísticas, matemáticas e IA, logrando identificar patrones útiles y relaciones que por otros métodos de análisis no son perceptibles al ser humano.

La minería de textos es el proceso de extraer patrones útiles y relaciones de grandes cantidades de textos, es aplicado al análisis de documentos en formatos Word, PDF, correos electrónicos, XML, esto es muy útil para efectuar análisis en los ámbitos legales, finanzas, medicina, inteligencia militar, noticias, tecnología y marketing.

Las más importantes aplicaciones de la minería de textos incluyen la extracción de información, traqueo de tópicos, resúmenes, categorizaciones, conexión de conceptos y respuesta de preguntas, que puede ser de gran aplicación en la inteligencia militar.

Los principales beneficios de adoptar una estrategia apropiada de BI son:

  • Reducir los costos de la informática.
  • Acelerar el proceso de toma de decisiones.
  • Mejorar la precisión, consistencia y relevancia de las decisiones adoptadas, proveyendo una sola versión de la verdad derivada de los datos disponibles.

Las principales empresas del mundo tales como Amazon, Google y Apple, utilizan extensivamente BI para lograr ventajas competitivas sobres sus adversarios comerciales.

Aplicación de la robótica en las FF.AA. de EE. UU.*

En la práctica, el desarrollo de sistemas militares norteamericanos autónomos ha sido lento e incremental, al compararlos con los sistemas comerciales ya desarrollados, como por ejemplo los automóviles autónomos.

Los robots militares existentes continúan requiriendo la intervención humana remota para que puedan desempeñar sus funciones satisfactoriamente.

Una limitación crítica de la IA es que depende de la calidad de los datos con que se ha alimentado el aprendizaje del robot, a la fecha no existen garantías de que un robot pueda entender una situación que no haya conocido previamente o procesar adecuadamente escenarios ligeramente diferentes a los que fue programado. En la medida que la incertidumbre del escenario crezca, estas máquinas son cada vez más ineficientes.

El futuro de la IA aplicado al ámbito militar está directamente relacionado con la habilidad de los ingenieros de diseñar sistemas o robots que sean cada vez más autónomos de los seres humanos, capacidad que no existe en la actualidad.

La cuarta revolución industrial en la Armada de EE. UU.

En el año 2010 la Armada de EE. UU. resolvió reactivar la Décima Flota, asignando su mando a un vicealmirante. En esta flota se concentraron cerca de 45.000 especialistas de inteligencia, guerra de la información, tecnología de la información, especialistas del comando espacial norteamericano, en meteorología y oceanografía.

Su misión es lograr un profundo conocimiento de los procesos de toma de decisiones de los adversarios, desarrollar un óptimo conocimiento del campo de batalla, proveer a las fuerzas de combate con capacidades de mando, control e inteligencia necesarias para cumplir sus misiones, y proyectar el poder militar a través de las redes informáticas enemigas.

La visión de la Décima Flota es la que se indica:*

Conduciremos operaciones a través del ciber-espacio, el espectro electromagnético y en el espacio, para asegurarnos que la Armada y los mandos conjuntos cuenten con una libertad de acción necesaria y una capacidad superior de toma de decisiones operacionales, denegando esta capacidad al enemigo.

Como ejemplo de aplicación de la revolución de la informática en la Armada de EE. UU. cabe citar aquí uno de los objetivos del Departamento de Marina, en su plan estratégico 2014-16, que fue el de:

Mejorar el rendimiento y reducir los costos de las áreas de gestión del Departamento de Marina, mediante la entrega del máximo valor de las inversiones efectuadas en tecnología de la información mediante la aplicación de “Business Intelligence” en todo el espectro de sus actividades.

La Armada de EE. UU. que había desarrollado hace un par de décadas el concepto de Network Centric Warfare, está evolucionado hacia la internet de todas las cosas,* siendo esto último: “La conexión de personas, procesos, datos y la Internet de las Cosas”, según lo que se deduce del libro blanco de la empresa norteamericana CISCO (2015).

Estas nuevas capacidades informáticas permitirán compartir la situación operativa, con un panorama operacional común construido con la posición precisa de todas las fuerzas hostiles, propias y amigas, lo cual es una capacidad clave para la Armada, permitiendo emplear todas las armas con la máxima efectividad, contando con la superioridad de la información sobre el enemigo.

Lo anterior incluye la conectividad de los drones y de todos los vehículos no tripulados de superficie y submarinos que estén operando, junto con la integración de las informaciones provistas por todas las plataformas aéreas, de superficie, submarinas y los centros de mando y control terrestres, como asimismo las capacidades satelitales y toda la información de inteligencia disponible.

Por otra parte, la prensa nacional informó (18-agosto-2017), que U.S.A. había adoptado la resolución de crear el Décimo Comando Conjunto, al mando de un oficial de cuatro estrellas, que estará a cargo de la defensa cibernética norteamericana.

Intentos por crear la especialidad de ingeniería naval informática en la Armada

La Armada ha sido pionera en el pasado en crear nuevas especialidades para absorber nuevas tecnologías, tal es el caso de la ingeniería naval mecánica y eléctrica con la revolución industrial, la especialidad de comunicaciones, submarinos y aviación naval a inicios del siglo XX, la ingeniería naval electrónica con la aparición de los radares y sistemas electrónicos a bordo, etc.

Existió un intento fallido en la Armada, a principios de la década del 2010, de crear la especialidad de telemática.

Conclusiones

El proceso de toma de decisiones en el ámbito militar debe responder rápidamente a situaciones cambiantes. Cada vez más los mandos se están apoyando con mayor frecuencia en procesos computacionales que contribuyen a tomar mejores decisiones de todo tipo.

No cabe ninguna duda que las futuras plataformas y sistemas navales estarán dotados con crecientes capacidades de inteligencia artificial y de automatización.

La Armada, que fue pionera hace ya casi 60 años en la incorporación de la computación aplicada a sistemas administrativos, debería, a contar de ahora, liderar el desarrollo futuro del big data, business intelligence, inteligencia artificial, internet de todas las cosas, las operaciones ofensivas y defensivas en el ciber-espacio (Cyberwarfare) y la robótica aplicada a la defensa nacional.

También se requiere reevaluar la relevancia de las operaciones en el ciber-espacio que deba efectuar la Armada en los conflictos futuros, tanto ofensivas como defensivas, elevándolas al mismo nivel de importancia que el resto de las operaciones navales clásicas.

Es de suma utilidad aumentar la masa crítica de especialistas en informática y ciencias afines que permita implementar integralmente todas las herramientas que podría proveer la cuarta revolución industrial en la Armada, clave en el devenir institucional.

De todo lo anterior se desprende la alta conveniencia de crear la especialidad de ingeniería naval en informática, formando oficiales que sean capaces de liderar la cuarta revolución industrial en la Armada, en los desarrollos de las tecnologías de la información y capacidades orientadas a optimizar los procesos logísticos institucionales (mantenimiento de sistemas, abastecimientos, administración, finanzas, personal, salud, educación, bienestar, etc.), junto con aumentar las capacidades de la Armada en los ámbitos operativos (inteligencia, guerra informática o ciberwarfare, planificación, mando y control y empleo operacional de las fuerzas navales y marítimas).

Estos futuros oficiales especialistas en ingeniería naval informática deberían tener una carrera similar a los actuales ingenieros navales electrónicos, es decir sin ninguna limitación de desempeño como especialistas, tanto en tierra como a bordo.

Así se cumplirá la vieja aspiración institucional de hacer más con menos y aumentar la eficiencia y eficacia a todo nivel en la Armada en lo que resta del siglo XXI.

Inicie sesión con su cuenta de suscriptor para comentar.-

Comentarios

Artículos Relacionados

Inteligencia artificial en la detección de cocaína en Chile
ESCENARIOS DE ACTUALIDAD

Inteligencia artificial en la detección de cocaína en Chile

La estadística actual indica que los niveles de narcotráfico vía marítima han aumentado en Chile en los últimos años (Mi...

Aplicación de la inteligencia artificial a la defensa y seguridad
TEMA DE PORTADA

Aplicación de la inteligencia artificial a la defensa y seguridad

“El crimen organizado se combate como región o no se combate (Tohá, 2024)1" Miles de millones de personas utilizan...

La inteligencia artificial: ¿Las llaves del edén o del averno?
TEMA DE PORTADA

La inteligencia artificial: ¿Las llaves del edén o del averno?

¿Qué entendemos por “inteligencia”? Básicamente es la capacidad de abstraer, discernir, discriminar, aprender, crear, an...

Inteligencia artificial y guerras futuras
TEMA DE PORTADA

Inteligencia artificial y guerras futuras

“La inteligencia artificial es el futuro no solo para Rusia, sino para toda la humanidad. Trae consigo enormes oportunid...

Inteligencia Artificial en la Educación Naval: Posibles ventajas y desventajas
ACTUALIDAD

Inteligencia Artificial en la Educación Naval: Posibles ventajas y desventajas

NOTA del Autor: Este articulo ha sido completamente escrito por una aplicación de Inteligencia Artificial (chatGPT). Se ...