La ciencia ficción nos muestra un futuro donde la inteligencia artificial y la automatización se integran en nuestros procesos humanos.
Las computadoras brindan asesoramiento para nuestro próximo curso de acción cuando nos enfrentamos a decisiones. La automatización nos ofrece sugerencias y preocupaciones con probabilidades muy específicas de éxito en función de la situación actual.
Mientras tanto, en la realidad actual, todavía estamos luchando con la recopilación automatizada de información y cómo procesarla para entregar pepitas significativas y perspicaces. Big data es una palabra de moda, pero como muchas tecnologías emergentes, el término significa cosas diferentes para diferentes personas. Una definición general de big data es “la recopilación de grandes volúmenes de información”, muy afín al concepto de automatización. Sin embargo, la gran pregunta es cómo podemos programar el análisis y la heurística para proporcionar información útil a través de big data que no podría obtenerse a través de esfuerzos humanos y manuales en la misma cantidad de tiempo
Las nuevas tecnologías de automatización requieren nuevas técnicas de gestión.
La comunidad de TI está adoptando nuevas tecnologías y arquitecturas como la definida por software, la nube y la virtualización. Estos modelos tecnológicos son difíciles de administrar manualmente debido a su mayor complejidad. La propiedad y el control en entornos de nube se distribuyen entre la empresa y el proveedor de la nube.
Operacionalmente, las organizaciones de TI necesitan soportar tecnologías como hipervisores y contenedores. Las empresas tienen la expectativa de que un ecosistema de red ágil y elástico pueda ajustarse a los requisitos cambiantes de la red y del negocio en tiempo real.
Los procesos humanos no pueden recopilar, analizar y responder a estos requisitos cambiantes de manera rápida y efectiva. Cuando las empresas intentan confiar en los procesos de TI operativos manuales heredados, rápidamente descubren que carecen de una verdadera comprensión del estado actual del entorno de TI, lo que conduce a un aumento en el error humano. El error es causado por la falta de análisis adecuados para identificar el remedio adecuado o la falta de ejecución adecuada de los cambios requeridos.
La analítica es la inteligencia artificial de hoy.
Hoy en día, las soluciones de big data ofrecen formas para que las empresas analicen cantidades voluminosas de datos de una manera programática basada en políticas y lógica codificadas en el motor analítico. Las organizaciones utilizan los motores de big data para obtener información para mejorar sus negocios y sus procesos. Están buscando pepitas de información que pueden perderse al usar los procesos tradicionales de supervisión operativa. También buscan tendencias y resultados que puedan identificarse antes que a través de estos modelos analíticos tradicionales.
Cuando los sistemas analíticos de big data entregan información, todavía hay un proceso manual para implementar e integrar cambios que afecten al negocio. A veces, la intervención manual es deliberada porque las empresas no confían en los sistemas analíticos para recomendar un curso de acción adecuado. Hay muchas historias de ciencia ficción en las que el sistema analítico supuestamente neutral o benevolente decide que los humanos no son socios comerciales ideales.
En otros casos, no existe conectividad entre la recopilación de datos y los aspectos operativos del negocio. Realizar cambios en una operación de distribución de productos requiere múltiples ajustes físicos y operativos que no son prácticos para implementarse automáticamente con la infraestructura actual.
La inteligencia artificial ya está aquí.
El entorno de TI tiene una ventaja: ya existe un marco para automatizar la implementación de los cambios recomendados provenientes del motor analítico. Las API abiertas y sólidas de múltiples proveedores y tecnologías múltiples permiten que estos motores analíticos interactúen con el entorno de TI. Se pueden realizar cambios en la arquitectura virtualizada, y las configuraciones de los diversos componentes se pueden modificar en función de la salida analítica.
En la industria de TI, se ha hablado de redes autorreparables y arquitecturas dinámicas. El motor analítico y su capacidad para alterar el ecosistema de la red es fundamental para el éxito de estos conceptos. El motor analítico recopila la información sensorial de todos los componentes de la red, analiza los datos en función de los requisitos comerciales y luego cambia el entorno de múltiples proveedores y tecnologías múltiples para mantener y mejorar la funcionalidad del negocio.
El uso de análisis y orquestación en la automatización para crear el ecosistema de red de autocuración reduce el potencial de errores humanos y acciones humanas que son contrarias a los objetivos comerciales y de TI.
En última instancia, la percepción social positiva o negativa de estos entornos de autocuración y conciencia de la automatización depende de qué tan bien definimos e implementamos las políticas para gestionar y restringir los motores analíticos artificialmente inteligentes.