Para los consumidores, la inteligencia artificial (IA) promete mejorar su vida diaria, generando un entusiasmo constante. Sin embargo, las empresas que implementan soluciones de IA deben considerar aspectos críticos relacionados con la propiedad intelectual y la confidencialidad de los datos. La mayoría de las compañías se hacen las preguntas correctas: ¿cómo podemos aprovechar al máximo esta tecnología emergente?, ¿cómo encaja la IA en nuestra estrategia de transformación digital?, ¿cómo podemos gestionar y proteger todos nuestros datos de manera segura?, y ¿cómo ejecutar una estrategia de IA exitosa con recursos limitados? Aunque estas preguntas son relevantes, no se debe perder de vista un aspecto crucial: la falta de atención a los secretos corporativos utilizados para entrenar los modelos de IA, esenciales para desarrollar las actividades que las empresas buscan optimizar con estas tecnologías.
La confidencialidad de los datos sensibles de las empresas y la Propiedad Intelectual son cuestiones críticas. La mayoría de los servicios públicos de IA, como Chat GPT, se basan en entradas de diversas fuentes y su conocimiento crece a través de las aportaciones de los usuarios. Eso significa que cada dato introducido en ese sistema ayuda a evolucionar, madurar y entrenar esos modelos e inferencias y otros elementos generativos. Pero ¿qué sucede cuando esos datos son datos confidenciales corporativos? Cuando los datos protegidos, o secretos, alimentan e informan a los modelos, ya no son secretos y pasan a formar parte de esa plataforma.
Para la mayoría de las empresas, esta es una idea desalentadora. Sin una planificación cuidadosa y políticas adecuadas, perder el control sobre los secretos corporativos podría convertirse en la nueva realidad. Por ejemplo, en el sector sanitario, las empresas manejan datos muy privados y sensibles. Es frecuente que estas empresas no puedan externalizar o mover datos fuera de regiones muy específicas, basándose en requisitos legales y normativas de cumplimiento, seguridad, necesidades de privacidad y más. Pero hay varias tareas en el sector de la salud en las que la IA podría ayudar. Se trata de tareas automatizables, mundanas y que no añaden gran valor. Desarrollar soluciones de IA para algunas de estas áreas liberaría al equipo de TI para que pudiera centrarse en ofrecer una mejor atención al paciente, más oportuna y precisa.
Algunos ejemplos podrían incluir áreas como la transcripción de voz a texto para las notas de los médicos, o la preselección de pacientes a través de un portal que les permita presentar sus síntomas por sí mismos. Pero proteger esos datos es vital, la pregunta que surge entonces es cómo aprovechar las capacidades y promesas de la IA sin arriesgar la exposición de datos sensibles, secretos corporativos y valiosos recursos internos.
Un reciente informe de IDC (Workload Repatriation Trends Update” by Natalya Yezhkova, June 2023) pone sobre la mesa cómo muchas empresas están considerando trasladar sus cargas de trabajo prioritarias relacionadas con la IA de una nube privada a infraestructuras públicas. Si bien esto puede funcionar para algunas empresas, hay consideraciones importantes, como que el lugar en el que se alojan los datos esté próximo, la seguridad, la privacidad y el riesgo. En cuanto a la ubicación de la IA, la realidad es que no todas las cargas de trabajo deben tratarse por igual. Y una buena forma de minimizar el riesgo para las cargas de trabajo y datos sensibles es mediante el uso de un enfoque híbrido.
Híbrido por diseño
En este sentido, muchas empresas ya emplean un enfoque híbrido porque se sirven de infraestructura privada y pública. En todos los aspectos -y sin una valoración previa- este es un enfoque «híbrido por accidente». Sin embargo, el enfoque “híbrido por diseño” es más intencional y estructurado, permitiendo experiencias para el reparto racional de cargas de trabajo, algo que facilita a la empresa la toma de decisiones de ubicación de las cargas de trabajo en función del rendimiento, la seguridad, el cumplimiento normativo, el coste y otras consideraciones sobre dónde desplegar las cargas de trabajo de forma óptima.
La inteligencia artificial, en sí misma, es simplemente otra carga de trabajo. Y al igual que con cualquier carga de trabajo, el departamento de TI debe decidir si ha de residir en nubes públicas, privadas o híbridas. Tomar la mejor decisión desde el principio implica determinar primero cómo proporcionarán los elementos básicos que necesitan para ofrecer IA.
Las consideraciones deben incluir la inferencia, el ajuste fino (fine-tuning), y otros componentes del espectro de la inteligencia artificial. No es sorprendente que muchos consideren una nube privada como una excelente opción, especialmente cuando la seguridad y la privacidad son prioridades. Con algunas soluciones de nube privada, los proveedores pueden ofrecer instancias optimizadas para inteligencia artificial con GPUs, adaptadas a las cargas de trabajo que el cliente planee ejecutar en su entorno. Por lo general, no se trata de soluciones únicas para todos, sino soluciones que están optimizadas y diseñadas para ejecutar cargas de trabajo de IA. También es posible proporcionar módulos básicos de nube con una experiencia de autoservicio incluyendo herramientas comunes como APIs, CLI, flujos de trabajo de Terraform y similares.
Este enfoque permite a aquellas empresas que quieran implementar una nube privada centrarse en la automatización y la orquestación de los despliegues de cargas de trabajo, ya sean contenedores, máquinas virtuales o servidores físicos. También ofrece una experiencia en la nube tan flexible como la de las nubes públicas, pero con la seguridad y el diseño optimizados de una nube privada.
Beneficios de las nubes privadas
En una nube privada, la empresa usuaria controla la ubicación geográfica de sus datos. Al ejecutar sus nubes de forma privada, también disponen de la inherente conectividad directa de baja latencia a sus datos centrales. Y como la mayoría de las cargas de trabajo de IA corporativas se ejecutan contra valiosos activos y datos corporativos, los usuarios pueden hacer su trabajo sin abandonar la seguridad del límite virtual o físico de sus propios centros de datos, entornos de co-ubicación u otros entornos dedicados.
Las soluciones habilitadas para cargas de trabajo o aquellas diseñadas específicamente como parte de una experiencia de nube privada son las que realmente marcarán la diferencia en la protección de sus activos y la optimización del valor de la IA.
Pero ¿cómo llegan las empresas a ese punto? El enfoque debe ser: ¿Cómo aprovecho el poder de estos recursos para habilitar y entregar estas cargas de trabajo de IA donde realmente las necesito? Eso podría suponer ejecutarlas en un centro de datos central contra los datos de la empresa o ejecutarlas en ubicaciones periféricas que brinden resultados de inferencia en tiempo real en el extremo.
A menudo, pueden acelerar este proceso adoptando estándares abiertos y permitiendo que los usuarios de la nube se autogestionen con herramientas comunes o bien conocidas (como Terraform u otros estándares de facto) para determinar cómo manejarían la creación de plantillas, la orquestación, la implementación y la gestión de este tipo de cargas de trabajo y soluciones. Y realizar actividades como ésta en una nube privada puede ayudar a garantizar una agilidad y velocidad totales.
Otra consideración importante es cómo consumirán sus servicios de IA, con opciones que van desde una gestión completa «deliver as a cloud» o una gestión como servicio en el centro de datos “as-a-service”, hasta el empleo de herramientas de autoservicio para que las empresas puedan administrar y operar la nube por su cuenta.
En definitiva, no hay una solución única para todos. Para muchas organizaciones, una experiencia de nube híbrida con IA funcionará mejor en cuanto a visibilidad, implementación y gestión de sus cargas de trabajo no solo en la nube privada, sino también al extenderlo a entornos de nube pública a gran escala.
Isabel Acedo, directora de preventa de servicios cloud en Hewlett Packard Enterprise