Data Mesh: Comprender sus aplicaciones, oportunidades y limitaciones 


Los datos han experimentado una metamorfosis en cuanto a la percepción de su valor y la gestión dentro de la esfera empresarial. Antes no eran valorados y muchas veces descartados, los datos solían quedar relegados a informes básicos o que no se miraban por falta de comprensión y gobernanza. Esta visión limitada, combinada con las tecnologías emergentes, dio lugar a unflujo de datos abrumador que no se procesaba. No se sabía qué datos se tenían ni durante cuánto tiempo.  

A principios de la década de 2000, las empresas utilizaban principalmente bases de datos aisladas, con accesibilidad limitada. La década de 2010 vio el auge de los almacenes de datos, que reunían conjuntos de datos diferentes que muchas veces provocaban cuellos de botella. Los lagos de datos surgieron como una solución para almacenar grandes cantidades de datos en bruto y rápidamente se convirtieron en pantanos sin una gobernanza adecuada. Los grupos monolíticos de TI e ingeniería de datos se esforzaban por documentar, catalogar y proteger la creciente acumulación de datos. Los propietarios de los productos y los equipos que quisieran o necesitaran acceder a los datos tendrían que solicitar el acceso y esperar. En ocasiones, esas solicitudes acabarían acumulándose y, finalmente, olvidadas.  

En esta nueva conciencia sobre los datos, la data mesh emerge como un concepto revolucionario que permite a las organizaciones gestionar, procesar y obtener información de datos de forma eficiente. A medida que las organizaciones se dan cuenta del papel fundamental de los datos en la transformación digital, se hace imperativo pasar de arquitecturas heredadas a soluciones más adaptables, lo que convierte a Data Mesh en una opción atractiva.  

 

Conceptos básicos de una Data Mesh 

No hay que subestimar la importancia de las experiencias personalizadas de los clientes. Ahora más que nunca, los consumidores se enfrentan a un sinfín de opciones. Para diferenciarse de la competencia, las empresas deben utilizar los datos y la información sobre el comportamiento de los clientes para crear experiencias personalizadas y dinámicas que satisfagan y conquisten a su público. Analice el historial de compras, los datos demográficos, la actividad web y otros datos para comprender a su cliente, así como tus gustos y aversiones. Utilice esta información para diseñar experiencias de cliente personalizadas que aumenten la conversión, la retención y, en última instancia, la satisfacción.  

Cuando se habla de conceptos de arquitectura de datos, los términos "heredado" o "tradicional" implican conceptos centralizados de gestión de datos, caracterizados por arquitecturas monolíticas desarrolladas y mantenidas por una organización de ingeniería de datos dentro de la empresa. A menudo, las unidades de negocio ajenas a TI se sentían abandonadas a su suerte, esperando a que el equipo de datos atendiera tus necesidades específicas, lo que generaba ineficiencias. 

Acuñado por primera vez en 2019, el paradigma Data Mesh es un enfoque descentralizado y de autoservicio para la arquitectura de datos. Hay cuatro principios centrales en los que se basa Data Mesh: Propiedad del dominio, tratamiento de los datos como un producto, infraestructura de autoservicio y gobernanza computacional federada. 

Con Data Mesh, los equipos (dominios) tienen la capacidad de ser dueños y gestionar sus datos (producto). Esto requiere una administración a nivel de equipo para gestionar eficazmente sus propios recursos para incorporar, conservar y dar servicio de datos a sus usuarios finales. Los administradores de datos son responsables de la calidad, fiabilidad, seguridad y accesibilidad de los datos. Los administradores de datos tienden un puente entre los equipos descentralizados y la gobernanza y supervisión a nivel empresarial. 

Aunque los equipos disfrutan de autonomía, se produciría un caos sin un enfoque de gobernanza federada. Esto garantiza que todos los propietarios de productos y administradores de datos siguen las normas, políticas y buenas prácticas.  

Implantar Data Mesh requiere una inversión significativa tanto en infraestructura como en brindar a los equipos los recursos y la experiencia necesarios para gestionar sus propios recursos. Requiere un cambio fundamental en la mentalidad de las empresas sobre cómo tratan los datos.  

Mientras que un Lakehouse trataría de combinar lo mejor de los Data Lakes y los Data Warehouses, Data Mesh va más allá al descentralizar el dominio y el control de los datos. Mientras que Data Fabric se centra en el acceso sin fisuras a los datos y la integración a través de fuentes dispares, Data Mesh hace hincapié en la propiedad basada en el dominio. Por otra parte, las arquitecturas basadas en eventos dan prioridad al flujo de datos y a las reacciones en tiempo real, lo que puede ser complementario a Data Mesh. 

arquitectura descentralizada de Data Mesh

Cuándo y dónde implantar la Data Mesh 

  1. Grandes organizaciones con dominios ricos en datos: En las grandes organizaciones, los departamentos a menudo manejan una gran cantidad de datos. Desde Recursos Humanos hasta Ventas, cada equipo tiene sus propios requisitos en cuanto al uso, almacenamiento y acceso a los datos. A medida que los equipos consumen más datos, el tiempo de comercialización y la eficiencia del desarrollo se resiente en las arquitecturas centralizadas. Los recursos externos y las limitaciones de tiempo suelen ser el mayor problema. Al implantar Data Mesh, los equipos pueden trabajar de forma independiente y tomar el control de sus datos, aumentando la eficiencia y la calidad. Como resultado, los equipos pueden optimizar y enriquecer su oferta de productos y reducir costos agilizando los procesos y flujos de trabajo ELT/ETL. 

Con un control directo sobre sus datos, los equipos pueden ajustar y adaptar las soluciones de datos para satisfacer mejor las necesidades de los clientes.  

  1. Ecosistema complejo: Las organizaciones, especialmente las que operan en entornos dinámicos con interdependencias intrincadas, a menudo enfrentan desafíos en estructuras de datos centralizadas. En tales arquitecturas, existe un control limitado sobre la asignación, utilización y gestión de recursos, lo que puede impedir a los equipos maximizar el potencial de los datos. Los enfoques centralizados pueden frenar la innovación debido a la rigidez de los esquemas, del flujo de datos y la falta de personalización específica del dominio. Data Mesh ofrece a las organizaciones la flexibilidad necesaria para adaptarse a la evolución de las necesidades de datos y utilizar la experiencia específica del dominio para conservar, procesar y consumir datos adaptados a sus necesidades. 
  1. Entornos de datos en rápido crecimiento: En la era digital actual, las organizaciones recopilan datos a una escala sin precedentes. El volumen de datos puede ser abrumador por los dispositivos IoT, integraciones de proveedores, interacciones de usuarios y transacciones digitales. Los equipos centralizados a menudo se enfrentan a problemas de escalado, retrasos en el procesamiento y el desafío de la entrega puntual de los datos. Data Mesh aborda esta cuestión distribuyendo la responsabilidad de los datos entre diferentes dominios o equipos. Múltiples unidades descentralizadas gestionan el flujo a medida que aumenta, garantizando un procesamiento puntual y reduciendo el tiempo de inactividad del sistema. El resultado es una infraestructura de datos más resistente y preparada para satisfacer tanto las demandas actuales como las necesidades futuras. 

Cuándo no implantar la Data Mesh 

  1. Pequeñas y medianas empresas (PYME): Aunque Data Mesh presenta numerosas ventajas, puede no ser adecuado para todas las organizaciones o proyectos. Las organizaciones más pequeñas suelen manejar volúmenes de datos menores y pueden no tener los recursos necesarios para gestionar los datos de forma independiente. En estos casos, una arquitectura de datos centralizada sería más adecuada para minimizar las complicaciones en el diseño y el mantenimiento con menos recursos para gestionarlos. 
  1. Arquitecturas centralizadas maduras y estables: Las organizaciones sólo suelen recurrir a nuevas soluciones cuando tienen problemas. Si una arquitectura centralizada bien establecida funciona y se ajusta a las necesidades de la empresa, no es necesario adoptar Data Mesh. Introducir un cambio fundamental en la forma de gestionar los datos es una tarea cara y disruptiva. Construir una nueva infraestructura y ampliar las capacidades de los equipos cambiando la cultura de la organización lleva tiempo.  
  1. Proyectos a corto plazo: La implantación de Data Mesh requiere una inversión significativa de tiempo y recursos. Las ventajas de Data Mesh no se apreciarán cuando se construya o diseñe un proyecto de duración limitada o una prueba de concepto. Si la duración de un proyecto no justifica la inversión en una Data Mesh o el alcance no requiere soluciones de datos específicas del dominio, no se aprovecharán las ventajas de Data Mesh. Las arquitecturas de datos tradicionales suelen ser más apropiadas para estas aplicaciones y no necesitan la supervisión/gobernanza que requiere Data Mesh.

  

Oportunidades que ofrece la Data Mesh 

  1. Escalabilidad: Data Mesh permite a las organizaciones escalar sus capacidades de procesamiento de datos de forma más eficaz ya que permite a los equipos controlar cómo y cuándo se procesan los datos, optimizando el uso de recursos y los costos, y garantizando que sigan siendo ágiles mientras se expanden las  fuentes de datos y bases de consumidores.  
  1. Mayor propiedad de los datos: Tratar los datos como un producto y no como un subproducto o un activo secundario es revolucionario. Al hacerlo, Data Mesh promueve una cultura con un claro sentido de propiedad y responsabilidad. Los dominios o equipos que "poseen" tus datos son más proclives a garantizar su calidad, precisión y relevancia. Esto fomenta un entorno en el que los datos no sólo se acumulan, sino que se conservan, refinan y optimizan para el fin previsto. Con el tiempo, esto conduce a conjuntos de datos más valiosos que sirven realmente a las necesidades de la organización. 
  1. Rapidez e innovación: La descentralización es sinónimo de autonomía. Cuando los equipos tienen las herramientas y el mandato para gestionar tus datos, no se ven atascados por depender de equipos o retrasos burocráticos. Pueden innovar, experimentar e iterar a un ritmo más rápido, lo que se traduce en una mayor recopilación de datos y grupos de datos más ricos. Esta agilidad acelera el desarrollo de productos de datos, lo que permite a las organizaciones adaptarse rápidamente a las necesidades cambiantes, aprovechar nuevas oportunidades y mantenerse a la vanguardia del mercado competitivo.  
  1. Mejor alineación con arquitecturas modernas: La descentralización no es sólo una tendencia en la gestión de datos; es un cambio más amplio que se observa en las arquitecturas organizativas modernas, especialmente con el auge de los microservicios. Data Mesh se alinea de forma natural con estas estructuras contemporáneas, creando un entorno cohesivo en el que los datos y los servicios coexisten armoniosamente. Esta alineación reduce la fricción, simplifica las integraciones y garantiza que toda la maquinaria organizativa, los servicios y los datos funcionen de forma unificada y racionalizada. 
  1. Mayor colaboración: A medida que los dominios se apropian de sus datos, existe una tendencia  a colaborar con otros dominios. Esta colaboración interfuncional fomenta el intercambio de conocimientos,  mejores prácticas y un enfoque unificado de los desafíos que plantean los datos, permitiendo una visión más holística.

Limitaciones y desafíos 

  1. Cambio cultural: Es posible que los equipos no quieran ser dueños de sus propios datos o no tengan la experiencia necesaria para asumir la responsabilidad. Para subsanar estas carencias, pueden ser necesarias iniciativas de formación, workshops e incluso la contratación de expertos externos. 
  1. Mayor complejidad: El desarrollo de un entorno compatible con una arquitectura Data Mesh no está exento de dificultades. A medida que se amplía el modelo de Data Mesh, la gestión del creciente número de recursos interconectados y la resolución de los problemas de integración para garantizar una comunicación fluida entre los distintos dominios puede suponer un obstáculo considerable. Planificar adecuadamente el apoyo a los equipos en materia de acceso, formación y gestión de Data Mesh es fundamental para su evolución y éxito. Esto incluye requisitos bien definidos para las API, el intercambio de datos y los protocolos de interfaz. 
  1. Implicaciones económicas: La transición a Data Mesh podría implicar importantes costos iniciales, como la contratación de recursos adicionales, la formación del personal, la inversión en nuevas infraestructuras y, posiblemente, la revisión de los sistemas existentes. 
  1. Gobernanza: La gobernanza de datos se ha convertido en un tema candente a medida que las arquitecturas de datos crecen y maduran. Garantizar una visión coherente de los datos en todos los dominios puede resultar complicado, especialmente cuando varios equipos actualizan o modifican tus conjuntos de datos de forma independiente. Las herramientas para gestionar la integridad, la seguridad y compliance son un requisito en la Arquitectura de data mesh. La necesidad de que los equipos tengan autonomía en un entorno descentralizado se equilibra con un modelo de gobernanza flexible pero controlado, base de la gobernanza federada. Esto puede ser un desafío cuando se diseña el modelo en función de los requisitos del equipo, pero es un paso importante que hay que dar lo antes posible cuando se construye una plataforma de datos.  

Conjunto de competencias: Evolucionar con el paradigma de Data Mesh

Con una mentalidad evolucionada, el paradigma de Data Mesh exige un conocimiento que tal vez no haya sido necesario en los equipos de datos tradicionales. Esta transición de lagos de datos centrales a productos de datos orientados a dominios presenta dificultades que requieren un profundo conocimiento de los datos y de los casos de uso específicos a los que sirven, tanto interna como externamente. Habilidades como la colaboración, la traducción de conocimientos específicos del dominio y la administración de datos se vuelven vitales. A medida que la responsabilidad de los datos se descentraliza, el papel de cada miembro del equipo se vuelve más crítico para garantizar la integridad, relevancia y seguridad de los datos. A medida que evolucionan las soluciones de datos, los equipos deben adoptar una mentalidad de aprendizaje perpetuo, manteniéndose al día de las últimas metodologías, herramientas y mejores prácticas relacionadas con la gestión eficaz de tus datos. 

Adoptar Data Mesh

En el ambiente siempre cambiantede la gestión de datos,  Data Mesh presenta una alternativa prometedora a las arquitecturas tradicionales. Es un camino de potenciación, eficiencia y descentralización. El creciente apoyo de la comunidad a Data Mesh, visible por el número cada vez mayor de estudios de casos, foros y herramientas desarrolladas, subraya su papel fundamental en el futuro de la gestión de datos. Sin embargo, el éxito depende de la disposición de la organización a aceptar los cambios culturales y operativos que exige. Como ocurre con todas las transformaciones importantes, actuar a tiempo, planear de manera precisa y la comprensión de los principios subyacentes son cruciales para una adopción exitosa. Adoptar Data Mesh es más que un cambio tecnológico: es una transformación de paradigma. Las organizaciones dispuestas a dar este salto no sólo seguirán el rápido ritmo de la evolución de datos, sino estarán a la vanguardia de las soluciones innovadoras basadas en datos.  

Tendencias de transformación digital que preparan su empresa para el futuro


La clave para que su empresa esté preparada para el futuro reside en la incorporación de las últimas tendencias tecnológicas y la digitalización estratégica de tus operaciones empresariales. Combinar soluciones nuevas y transformadoras con métodos empresariales probados no solo es un enfoque práctico, sino esencial para competir en esta era digital. Utilizando las últimas tendencias en transformación digital como guía, empiece a imaginar el viaje que supone preparar su empresa para el futuro con el fin de desbloquear las oportunidades del mañana. 

#1 Personalización  

No hay que subestimar la importancia de las experiencias personalizadas de los clientes. Ahora más que nunca, los consumidores se enfrentan a un sinfín de opciones. Para diferenciarse de la competencia, las empresas deben utilizar los datos y la información sobre el comportamiento de los clientes para crear experiencias personalizadas y dinámicas que satisfagan y conquisten a su público. Analice el historial de compras, los datos demográficos, la actividad web y otros datos para comprender a su cliente, así como tus gustos y aversiones. Utilice esta información para diseñar experiencias de cliente personalizadas que aumenten la conversión, la retención y, en última instancia, la satisfacción.  

#nº 2 Inteligencia artificial  

La IA está en todas partes. Desde vehículos autónomos y hogares inteligentes hasta asistentes digitales y chatbots, la inteligencia artificial se utiliza en una amplia gama de aplicaciones para mejorar, simplificar y agilizar las tareas de la vida cotidiana. Para las empresas, la IA y el Machine Learning tienen el poder de extraer y descifrar grandes cantidades de datos que pueden ayudar a predecir tendencias y previsiones, ofrecer experiencias interactivas personalizadas a los clientes y agilizar los procesos operativos. Las empresas que se apoyan en decisiones basadas en la IA se ven impulsadas hacia un mundo de eficiencia, precisión, automatización y competitividad.  

#3 Sostenibilidad 

Las empresas, especialmente las del sector manufacturero, se enfrentan a una presión cada vez mayor para actuar de forma más responsable y tener en cuenta los objetivos medioambientales, sociales y de gobernanza corporativa (ASG) a la hora de tomar decisiones empresariales. Las transformaciones digitales son una forma de apoyar el desarrollo sostenible interno, ya que permiten reducir los residuos, optimizar el uso de los recursos y mejorar la transparencia. Con la sostenibilidad en mente, las empresas pueden construir tus infraestructuras de datos y tecnología para reducir el impacto. Por ejemplo, las empresas pueden cambiar a un hardware más eficiente desde el punto de vista energético o reducir el consumo de electricidad migrando a la nube.  

#4 Migración a la nube 

Cada vez más empresas están migrando tus datos de las instalaciones locales a la nube. De hecho, se calcula que en 2027 el 50% de las empresas utilizarán servicios en la nube1. ¿A qué se debe esta transición masiva? El ahorro de costos es uno de los principales factores. Aprovechar las plataformas de almacenamiento en la nube elimina la necesidad de costosos centros de datos y hardware de servidor, reduciendo así importantes gastos de infraestructura. Y aunque navegar por un proyecto de migración a la nube puede parecer un reto, muchos recurren a socios de computación en nube para dirigir la migración de datos y garantizar un cambio indoloro.  

Prepare su empresa para el futuro mediante la transformación digital con Kopius

Al adoptar estas tendencias de transformación digital, su empresa no solo se adapta al panorama empresarial actual, sino que también desbloquea nuevas oportunidades de crecimiento. Preparar su empresa para el futuro requiere una combinación de perspicacia estratégica y conocimientos técnicos. Aquí es precisamente donde un socio de transformación digital, que posee un profundo conocimiento de estas tendencias, puede equipar a su empresa con los recursos y soluciones para evolucionar con confianza. Póngase en contacto con Kopius hoy mismo y hablemos de un viaje de transformación que prepare a su empresa para el futuro digital.  

Guía paso a paso para personalizar la experiencia del cliente


Ganarse el interés y la fidelidad de los clientes significa algo más que ofrecer un producto o servicio superior. El secreto reside en una poderosa estrategia llamada personalización, un enfoque dinámico que adapta la experiencia del cliente para satisfacer tus necesidades y preferencias individuales. A medida que las empresas de todos los sectores se esfuerzan por crear conexiones duraderas con tus clientes y satisfacer sus expectativas cambiantes, no hay que exagerar la importancia de la personalización en la experiencia del cliente. Siga leyendo para conocer los convincentes argumentos a favor de la personalización del cliente y una guía paso a paso sobre cómo su empresa puede embarcarse en este viaje para elevar la experiencia del cliente. 

Admitámoslo, las ofertas genéricas son anticuadas. Hoy en día, los clientes anhelan algo más; quieren una experiencia que resuene con sus gustos únicos. La personalización es el ingrediente mágico de este deseo. Al adaptar los productos, servicios e interacciones a las preferencias individuales, las empresas crean una sensación de conexión que fomenta una fidelidad duradera. Y más allá de eso, un estudio de McKinsey descubrió que las empresas que aplicaban una estrategia de personalización generaban un 40% más de ingresos que las que hacían menos hincapié en este enfoque. Todo apunta a la personalización.  

Los datos son el núcleo de la personalización, ya que ofrecen información sobre el comportamiento de los clientes. Ahora más que nunca, las empresas tienen acceso a una gran cantidad de información sobre tus clientes, como tus compras anteriores y tus hábitos de navegación, que sirven de base para estos conocimientos. Gracias a los análisis avanzados y a la inteligencia artificial, las empresas pueden descubrir patrones y tendencias valiosos que les permitan crear experiencias personalizadas para tus clientes. 

La creación de una estrategia exitosa de personalización requiere considerar, reflexionar y ejecución. Si estás empezando, sigue estos pasos para crear una experiencia de cliente mejorada y adaptada que impulsará resultados notables para tu negocio:

Paso 1: Recopilar todos los datos posibles sobre los clientes.

En el núcleo de toda estrategia de personalización de éxito se encuentra un profundo conocimiento de tus clientes. Para sentar esta sólida base, comienza a recopilar datos valiosos de múltiples puntos de contacto, incluidas las interacciones en el sitio web, el historial de compras y los comentarios de los clientes. Aprovecha herramientas potentes como el software de gestión de las relaciones con los clientes (CRM), los análisis de sitios web y las perspectivas de las redes sociales para obtener una visión holística de las preferencias, los comportamientos y los puntos débiles de tus clientes.

Paso 2: Divida los clientes en segmentos de audiencia.

Con una gran cantidad de datos al alcance, es hora de pasar a la segmentación. Divide a tus clientes en grupos distintos basados en rasgos compartidos como datos demográficos, comportamiento de compra e intereses. La segmentación del público permite personalizar los mensajes u ofertas, abordar las necesidades individuales de los clientes con precisión y crear una sensación de relevancia.

Paso 3: Personaliza los mensajes.

Una vez completado el proceso de segmentación, ¡es hora de personalizar! Empieza por crear contenidos interesantes con recomendaciones de productos a medida, y diseña ofertas exclusivas que se adapten específicamente a las preferencias únicas de cada uno de los segmentos de audiencia. De este modo, crearás experiencias verdaderamente personalizadas que cautivarán a tu público y dejarán huella.

Paso 4: Automatiza la entrega de contenidos dinámicos. 

Ofrece experiencias digitales en tiempo real que tengan en cuenta los intereses de tus clientes y sus interacciones anteriores. Adoptar tecnologías innovadoras como la inteligencia artificial permite analizar los datos de los clientes, predecir comportamientos y aplicar una estrategia de personalización eficaz que ofrezca experiencias a medida sobre la marcha. Los chatbots con IA llevan la asistencia personalizada un paso más allá, ofreciendo ayuda instantánea para resolver las dudas y aumentar los niveles generales de satisfacción.

Paso 5: Realiza un seguimiento de tus campañas de personalización. 

Supervisa el impacto de tu estrategia de personalización del cliente, la satisfacción y el rendimiento empresarial. Evalúa métricas clave como las tasas de conversión y la retención de clientes para valorar su eficacia. Utiliza cualquier información obtenida para identificar áreas de mejora y modificar tu enfoque. 

Las posibilidades de diseñar una experiencia digital personalizada son ilimitadas. Los chatbots con IA ofrecen asistencia personalizada en tiempo real, lo que hace que los clientes se sientan valorados y atendidos. La entrega dinámica de contenidos garantiza que las experiencias en el sitio web se basen en las preferencias individuales. La personalización enriquecerá el viaje del cliente, aumentando el compromiso y las tasas de conversión. Si estás preparado para ofrecer experiencias personalizadas, Kopius está aquí para ayudar. Trabajemos juntos para crear experiencias de cliente extraordinarias para tu empresa. 

5 industrias ganadoras en inteligencia artificial


Por Lindsay Cox

La inteligencia aumentada (IA) y el Machine Learning (ML) ya eran las tecnologías en el radar de todo el mundo cuando empezó el año, y el lanzamiento de Modelos Fundacionales como ChatGPT no hizo más que aumentar el entusiasmo sobre las formas en que la tecnología de datos puede cambiar nuestras vidas y nuestros negocios. Estamos entusiasmados con estas cinco industrias que están ganando en inteligencia artificial.

Como organización, los proyectos de datos e inteligencia artificial son nuestro punto fuerte. ChatGPT está muy de actualidad en estos momentos (y es una herramienta superguay; puedes echarle un vistazo aquí si aún no lo has hecho).

También disfruté viendo a Watson jugar a Jeopardy como antiguo IBMer 😊.

Hay algunos ejemplos reales de cómo cinco organizaciones están triunfando con la IA. Hemos incluido esos casos de uso junto con ejemplos en los que nuestros clientes han liderado proyectos relacionados con la IA.

Puede encontrar más casos prácticos sobre transformación digital, datos y desarrollo de aplicaciones de software en nuestra sección de casos prácticos del sitio web.

Marcas de consumo: Visualizar es fácil

Las marcas están ayudando a los clientes a visualizar el resultado de tus productos o servicios utilizando la visión por computadora y la IA. Por ejemplo, los consumidores pueden probarse virtualmente un nuevo par de gafas, un nuevo corte de pelo o un traje nuevo. La IA también puede utilizarse para visualizar un cuarto de baño o un jardín remodelados.

Ayudamos a una marca de odontología a distancia que da prioridad a la web a desarrollar una solución de visión por computadora para mostrar a un cliente cómo quedaría su sonrisa tras un posible tratamiento. Emparejamos la solución de visión por computadora con una aplicación web móvil para que los clientes pudieran "ver su nuevo selfie". 

Las preguntas de los consumidores pueden resolverse con mayor rapidez y precisión

El servicio de atención al cliente puede determinar la fidelidad del cliente, por lo que los chatbots y los asistentes virtuales se están implementando a gran escala para reducir el tiempo medio de gestión, la velocidad media de respuesta y aumentar las resoluciones en la primera llamada.

Trabajamos con un sistema sanitario regional para diseñar y desarrollar una "puerta de entrada digital" que mejore la experiencia de pacientes y proveedores. La solución incluye una búsqueda web interactiva y funciones de chatbot. Al ofrecer respuestas más rápidas a pacientes y proveedores, el sistema sanitario puede aumentar la satisfacción y mejorar la atención y los resultados de los pacientes.

Finanzas: Prevención del fraude

Existe una gran oportunidad para que las organizaciones de servicios financieros utilicen soluciones de IA y aprendizaje profundo para reconocer transacciones dudosas y frustrar el fraude con tarjetas de crédito, lo que ayuda a reducir costos. También conocida como detección de anomalías, los bancos generan enormes volúmenes de datos que pueden utilizarse para entrenar modelos de Machine Learning con el fin de detectar transacciones fraudulentas.

Agricultura: Apoyo a los objetivos ESG mediante una explotación más sostenible

Las tecnologías de datos como la visión por computadora pueden ayudar a las organizaciones a ver cosas que a los humanos se nos escapan. Esto puede ayudar con la crisis climática, ya que puede incluir el desperdicio de agua, el desperdicio de energía y los residuos de vertederos mal dirigidos.

El sector de la tecnología agrícola ya está aprovechando los datos y la IA, puesto que nuestros productores de alimentos y agricultores están sometidos a una presión extrema para producir más cosechas con menos agua. Por ejemplo, John Deere creó un robot llamado "See and Spray" que utiliza tecnología de visión por computadora para controlar y rociar herbicida en las plantas de algodón en cantidades precisas.

Trabajamos con PrecisionHawk para utilizar la visión por computadora combinada con la fotografía basada en drones para analizar cultivos y campos con el fin de ofrecer a los agricultores información precisa para gestionar mejor los cultivos. Los datos producidos gracias al proyecto de visión por computadora ayudaron a los agricultores a comprender tus necesidades y definir estrategias con mayor rapidez, lo que es fundamental en agricultura. (enlace al estudio de caso)

Asistencia sanitaria: Identificar y prevenir enfermedades

La IA tiene un importante papel que desempeñar en la atención sanitaria, con usos que van desde la asistencia telefónica al paciente hasta el diagnóstico y tratamiento de pacientes.

Por ejemplo, las empresas sanitarias están creando sistemas de apoyo a la toma de decisiones clínicas que avisan al médico con antelación cuando un paciente corre el riesgo de sufrir un infarto de miocardio o un ictus, lo que añade un tiempo crítico a su ventana de respuesta.

El aprendizaje electrónico asistido por IA también está ayudando a diseñar itinerarios de aprendizaje, sesiones de tutoría personalizadas, análisis de contenidos, marketing dirigido, calificación automática, etc. La IA tiene un papel que desempeñar a la hora de hacer frente a la necesidad crítica de formación sanitaria tras la escasez de personal sanitario.

La inteligencia artificial y el Machine Learning se perfilan como las tecnologías más revolucionarias del momento. Estos son algunos ejemplos que ponen de relieve el amplio uso y los beneficios de las tecnologías de datos en todos los sectores. La lista real de casos de uso y ejemplos es infinita y sigue creciendo.

¿Qué debe ocurrir para que su empresa triunfe en inteligencia artificial? Para obtener más información sobre inteligencia artificial y Machine Learning, póngase en contacto con nosotros hoy mismo. Kopius es líder en consultoría y servicios de tecnología digital nearshore.


Recursos adicionales:


Cuatro preguntas esenciales sobre los prejuicios de la IA


Por Hayley Pike

A medida que la IA se integra cada vez más en las empresas, también lo hace el sesgo de la IA.

El 2 de febrero de 2023, Microsoft publicó una declaración del vicepresidente y presidente Brad Smith sobre la IA responsable. A raíz de la nueva influencia de ChatGPT y Stable Diffusion, tener en cuenta la historia de los prejuicios raciales en las tecnologías de IA es más importante que nunca.

El debate en torno a los prejuicios raciales en la IA lleva años en marcha y, con él, han surgido indicios de problemas. Google despidió a dos de tus investigadores, el Dr. Timnit Gebru y la Dra. Margaret Mitchell, después de que publicaran artículos de investigación en los que se describía cómo la IA de reconocimiento facial y del lenguaje de Google tenía un sesgo en contra de las mujeres de color. Y el software de reconocimiento de voz de Amazon, Microsoft, Apple, Google e IBM identificó erróneamente el habla de personas negras en un 35%, en comparación con el 19% del habla de personas blancas.

En noticias más recientes, la empresa de tecnología DEI Textio analizó ChatGPT y demostró que se inclinaba a escribir anuncios de empleo para candidatos más jóvenes, hombres y blancos, y que el sesgo aumentaba en los anuncios de empleos más específicos.

Si está trabajando en un producto o proyecto de IA, debe tomar medidas para abordar el sesgo de la IA. Aquí tienes cuatro preguntas importantes para que tu IA sea más inclusiva:

  1. ¿Hemos incorporado evaluaciones éticas de la IA en el flujo de trabajo de producción desde el principio del proyecto? Los recursos de IA responsable de Microsoft incluyen una guía de evaluación de proyectos.
  2. ¿Estamos preparados para revelar los puntos fuertes y las limitaciones de nuestras fuentes de datos? La inteligencia artificial es tan sesgada como las fuentes de datos de las que se nutre. El proyecto debe revelar a quién priorizan los datos y a quién excluyen.
  3. ¿Es diverso nuestro equipo de producción de IA? ¿Cómo ha tenido en cuenta las perspectivas de las personas que utilizarán su producto de IA y que no están representadas en el equipo del proyecto o en la industria tecnológica?
  4. ¿Hemos escuchado a diversos expertos en IA? La Dra.Joy Buolamwini y la Dra. Inioluwa Deborah Raji, actualmente en el MIT Media Lab, son dos investigadoras negras pioneras en el campo del sesgo racial en la IA.

Rediet Adebe es informático y cofundador de Black in AI. Adebe lo resume así:

"La investigación en IA también debe reconocer que los problemas que queremos resolver no son puramente técnicos, sino que interactúan con un mundo complejo lleno de desafíos estructurales y desigualdades. Por lo tanto, es crucial que los investigadores de IA colaboren estrechamente con personas que posean formación y conocimientos especializados diversos."

Para obtener más información sobre inteligencia artificial y Machine Learning, póngase en contacto con nosotros hoy mismo. Kopius es líder en consultoría y servicios de tecnología digital nearshore.


Recursos adicionales:


ChatGPT y modelos de fundación: El futuro del trabajo asistido por IA


Por Yuri Brigance

El auge de modelos generativos como ChatGPT y Stable Diffusion ha generado mucho debate sobre el futuro del trabajo y el lugar de trabajo asistido por IA. Hay una gran expectación por las nuevas e impresionantes capacidades que promete esta tecnología, así como preocupación por la pérdida de puestos de trabajo a causa de la automatización. Veamos en qué punto nos encontramos hoy, cómo podemos aprovechar estas nuevas tecnologías de texto generadas por IA para potenciar la productividad y qué cambios pueden suponer para un lugar de trabajo moderno.

¿Te quitará el trabajo ChatGPT?

Es la pregunta que todo el mundo se hace. La IA puede generar imágenes, música, texto y código. ¿Significa esto que tu trabajo como diseñador, desarrollador o redactor está a punto de automatizarse? Pues sí. Tu trabajo se automatizará en el sentido de que será mucho más eficiente, pero tú seguirás al mando.

En primer lugar, no toda automatización es mala. Antes de que se generalizaran las computadoras, los impuestos se hacían con papel y lapicera. ¿Abandonaron los programas fiscales modernos el negocio de los contables? En absoluto. Facilitó su trabajo automatizando tareas repetitivas, aburridas y repetitivas. Los contables fiscales son ahora más eficientes que nunca y pueden centrarse en dominar la legislación fiscal en lugar de perder horas empujando papel. Se ocupan de casos fiscales más complicados, personalizados y adaptados a usted o a su empresa. Del mismo modo, es justo suponer que estas nuevas herramientas generativas de IA aumentarán los trabajos creativos y los harán más eficientes y agradables, no los suplantarán por completo.

En segundo lugar, los modelos generativos se entrenan con contenidos creados por humanos. Esto molesta a muchos, especialmente a los creadores, cuyas obras se utilizan como datos de entrenamiento sin el permiso explícito del artista, lo que permite al modelo replicar su estilo artístico único. Stability.ai planea resolver este problema permitiendo a los artistas optar por que tus obras no formen parte del conjunto de datos, pero, siendo realistas, no hay forma de garantizar el cumplimiento y no hay forma definitiva de demostrar si su arte se sigue utilizando para entrenar modelos. Pero esto abre interesantes oportunidades. ¿Qué pasaría si concedieras la licencia de tu estilo a una empresa de inteligencia artificial? Si eres un artista de éxito y tu trabajo tiene demanda, podría haber un futuro en el que concedieras licencias para que tu trabajo se utilizara como datos de entrenamiento y te pagaran cada vez que se generara una nueva imagen basada en tus creaciones anteriores. Es posible que los creadores de IA responsables puedan calcular el nivel de actualizaciones de gradiente durante el entrenamiento y el porcentaje de activación neuronal asociado a muestras específicas de datos para calcular cuánto de tu arte bajo licencia fue utilizado por el modelo para generar un resultado. Del mismo modo que Spotify paga una pequeña cantidad al músico cada vez que alguien reproduce una de tus canciones, o que sitios web como Flaticon.com pagan una cantidad al diseñador cada vez que se descarga uno de tus iconos. Resumiendo, es probable que pronto veamos controles más estrictos sobre cómo se construyen los conjuntos de datos de formación en lo que respecta a las obras con licencia frente al dominio público.

Veamos algunas implicaciones positivas de este lugar de trabajo y esta tecnología asistidos por IA en relación con algunas funciones creativas y cómo esta tecnología puede agilizar determinadas tareas.

Como diseñador de interfaz de usuario, cuando diseñas interfaces web y para móviles es probable que dediques mucho tiempo a buscar imágenes de archivo. Las imágenes deben ser relevantes para la empresa, tener los colores adecuados, dejar espacio para superponer texto, etc. Algunas imágenes pueden ser oscuras y difíciles de encontrar. Se pueden pasar horas buscando la imagen de archivo perfecta. Con la IA, basta con generar una imagen a partir de un texto. Puede pedir al modelo que cambie la iluminación y los colores. ¿Necesitas espacio para un título? Utiliza inpainting para despejar una zona de la imagen. ¿Necesitas añadir un elemento específico a la imagen, como un cucurucho de helado? Muéstrale a AI dónde lo quieres y lo integrará sin problemas. ¿Necesitas buscar códigos de colores RGB/HEX complementarios? Pídele a ChatGPT que genere algunas combinaciones.

¿Va a desaparecer el trabajo de los fotógrafos? Lo más probable es que no. Siguen apareciendo nuevos dispositivos y hay que incorporarlos periódicamente a los datos de formación. Si somos inteligentes a la hora de conceder licencias de estos activos con fines de capacitación, es posible que tengas  más ingresos que antes, ya que la IA puede utilizar una parte de tu imagen y pagarte una tarifa parcial por cada solicitud muchas veces al día, en lugar de que un usuario compre una licencia por vez. Sí, hay que trabajar para habilitar esta funcionalidad, por eso es importante plantearse las cosas ahora y trabajar hacia una solución que beneficie a todos. Pero los modelos generativos entrenados hoy estarán lamentablemente obsoletos dentro de diez años, así que los modelos seguirán necesitando nuevos datos del mundo real generados por humanos para mantener su relevancia. Las empresas de IA tendrán una ventaja competitiva si pueden obtener licencias de conjuntos de datos de alta calidad, y nunca se sabe cuáles de tus imágenes utilizará la IA; incluso podría averiguar qué fotos tomar más para maximizar ese flujo de ingresos.

Los ingenieros de software, especialmente los que trabajan en servicios profesionales, a menudo tienen que alternar entre varios lenguajes de programación. Incluso en el mismo proyecto, pueden utilizar Python, JavaScript / TypeScript y Bash al mismo tiempo. Es difícil cambiar de contexto y recordar todas las peculiaridades de la sintaxis de un lenguaje en particular. ¿Cómo hacer eficientemente un bucle for en Python vs Bash? ¿Cómo desplegar un Cognito User Pool con un autorizador Lambda usando AWS CDK? Acabamos googleando estos fragmentos porque trabajar con tantos lenguajes nos obliga a recordar conceptos de alto nivel en lugar de elementos sintácticos específicos. GitHub Gist existe con el único propósito de descargar fragmentos de código útil de la memoria local (tu cerebro) a un almacenamiento externo. Con tanto que aprender, y cosas en constante evolución, es más fácil ser consciente de que existe una técnica o algoritmo concreto (y dónde buscarlo) que recordarlo con insoportable detalle como si recitáramos un poema. Herramientas como ChatGPT integradas directamente en el IDE reducirían la cantidad de tiempo que los desarrolladores dedican a recordar cómo crear una nueva clase en un lenguaje que hace tiempo que no utilizan, cómo configurar la lógica de bifurcación o construir un script que mueva un montón de archivos a AWS S3. Podrían simplemente pedirle al IDE que rellene esta repetición de tareas para pasar a resolver los desafíos algorítmicos más interesantes.

Un ejemplo de cómo usar los decoradores de Python en ChatGPT . El texto y el fragmento de código de ejemplo son muy informativos.

Para los redactores, puede ser difícil superar el bloqueo del escritor que supone no saber por dónde empezar o cómo concluir un artículo. A veces resulta difícil describir de forma concisa un concepto complicado. ChatGPT puede ser útil en este sentido, sobre todo como herramienta para buscar rápidamente información aclaratoria sobre un tema. Aunque es justificada tener precaución, como ha demostrado recientemente Stephen Wolfram, CEO de Wolfram Alpha, que argumenta de forma convincente que las respuestas de ChatGPT no siempre deben tomarse al pie de la letra... Así que la clave está en investigar por tu cuenta. Así las cosas, el modelo de OpenAI suele ser un buen punto de partida para explicar un concepto y, como mínimo, puede ofrecer pistas para seguir investigando. Pero por ahora, los escritores siempre deben verificar tus respuestas. Recordemos también que ChatGPT no ha sido entrenado con ninguna información nueva creada después del año 2021, por lo que no está al tanto de las novedades sobre la guerra en Ucrania, las cifras actuales de inflación o las recientes fluctuaciones del mercado bursátil, por ejemplo.

En conclusión

Los modelos de base como ChatGPT y Stable Diffusion pueden aumentar y agilizar los flujos de trabajo, y aún están lejos de poder amenazar directamente un puesto de trabajo. Son herramientas útiles mucho más capaces que los modelos de aprendizaje profundo de enfoque espefício, y requieren cierto grado de supervisión y precaución. ¿Serán aún mejores estos modelos dentro de 5-10 años? Sin duda. Y para entonces, puede que nos hayamos acostumbrado a ellos y tengamos varios años de experiencia trabajando con estos agentes de IA, incluidas tus peculiaridades y errores.

Hay una cosa importante que debemos tener en cuenta sobre los Modelos Fundacionales y el futuro del lugar de trabajo asistido por IA: en el presente, la capacitación sigue siendo muy costosa. No están conectados a Internet y no pueden consumir información en tiempo real, en modo de entrenamiento incremental en línea. No hay una base de datos en la que cargar los nuevos datos, lo que significa que para incorporar nuevos conocimientos, el conjunto de datos debe crecer para encapsular la información reciente, y el modelo debe afinarse o volver a entrenarse desde cero en este conjunto de datos más grande. Es difícil verificar que el modelo produzca información objetivamente correcta, ya que el conjunto de datos de entrenamiento no está etiquetado y el procedimiento de entrenamiento no está totalmente supervisado. Hay alternativas interesantes de código abierto en el horizonte (como la StableDiffusion basada en U-Net), y técnicas para ajustar partes del modelo más grande a una tarea específica, pero éstas tienen un enfoque más específico, requieren cantidad de retoques con hiperparámetros, y en general están fuera del alcance de este artículo en particular.

Es difícil predecir exactamente dónde estarán los modelos básicos dentro de cinco años y cómo influirán en el lugar de trabajo asistido por IA, ya que el campo del Machine Learning evoluciona rápidamente. Sin embargo, es probable que los modelos básicos sigan mejorando en términos de precisión y capacidad para gestionar tareas más complejas. Por ahora, sin embargo, parece que aún nos queda algo de tiempo antes de preocuparnos seriamente por perder nuestros puestos de trabajo a manos de la IA. Deberíamos aprovechar esta oportunidad para mantener ahora conversaciones importantes que garanticen que el futuro desarrollo de estos sistemas tenga una trayectoria ética.

Para obtener más información sobre nuestras soluciones de IA generativa, ponte en contacto con nosotros hoy mismo. Kopius es líder en consultoría y servicios de tecnología digital nearshore.


Recursos adicionales:


¿Qué diferencia a los modelos ChatGPT y Foundation de los modelos habituales de IA?


Por Yuri Brigance

Aquí se presenta lo que separa a los modelos fundacionales de los modelos habituales de IA. Exploramos las razones por las que estos modelos son difíciles de entrenar y cómo entenderlos en el contexto de los modelos de IA más tradicionales.

Modelo de fundación chatGPT

¿Qué son los Modelos Fundacionales?

¿Qué son los modelos básicos y en qué se diferencian de los modelos tradicionales de IA de aprendizaje profundo? El Centro de IA Centrada en el Ser Humano del Instituto Stanford define un modelo básico como "cualquier modelo entrenado con datos amplios (generalmente utilizando autosupervisión a escala) que puede adaptarse a una amplia gama de tareas posteriores". Esto describe también muchos modelos estrechos de IA, como MobileNets y ResNets, que también pueden ajustarse y adaptarse a distintas tareas.

Las distinciones clave aquí son "autosupervisión a escala" y "amplia gama de tareas".

Los modelos Foundation se entrenan con cantidades ingentes de datos sin etiquetar o semietiquetados, y el modelo contiene órdenes de magnitud más de parámetros entrenables que un modelo de aprendizaje profundo típico destinado a ejecutarse en un smartphone. Esto hace que los modelos básicos sean capaces de generalizarse a una gama mucho más amplia de tareas que los modelos más pequeños entrenados en conjuntos de datos específicos del dominio. Es un error común pensar que arrojar muchos datos a un modelo hará que de repente haga algo útil sin más esfuerzo. En realidad, estos modelos de gran tamaño son muy buenos para encontrar y codificar patrones intrincados en los datos con poca o ninguna supervisión, patrones que pueden explotarse de diversas formas interesantes, pero es necesario realizar una buena cantidad de trabajo para utilizar este conocimiento oculto aprendido de forma útil.

La arquitectura de los modelos básicos de IA

El aprendizaje no supervisado, semisupervisado y por transferencia no son conceptos nuevos y, hasta cierto punto, los modelos de fundamentos también entran en esta categoría. Estas técnicas de aprendizaje se remontan a los inicios de los modelos generativos, como las máquinas de Boltzmann restringidas y los autocodificadores. Estos modelos más sencillos constan de dos partes: un codificador y un descodificador. El objetivo de un autocodificador es aprender una representación compacta (conocida como codificación o espacio latente) de los datos de entrada que capte los rasgos o características importantes de los datos, lo que se conoce como "separación lineal progresiva" de los rasgos que definen los datos. Esta codificación puede utilizarse después para reconstruir los datos de entrada originales o generar datos sintéticos completamente nuevos introduciendo variables latentes modificadas de forma inteligente en el descodificador.

Un ejemplo de arquitectura de un modelo autoencodificador convolucional de imágenes se entrena para reconstruir su propia entrada, por ejemplo: imágenes. La modificación inteligente del espacio latente permite generar imágenes completamente nuevas. Esto se puede ampliar añadiendo un modelo adicional que codifique las indicaciones de texto en representaciones latentes que el descodificador entienda para permitir la funcionalidad de texto a imagen.

Muchos modelos modernos de ML utilizan esta arquitectura, y la parte del codificador se denomina a veces columna vertebral, mientras que el decodificador se denomina cabeza. A veces los modelos son simétricos, pero con frecuencia no lo son. Muchas arquitecturas de modelos pueden servir como codificador o columna vertebral, y el resultado del modelo puede adaptarse a un problema específico modificando el decodificador o la cabeza. No hay límite en el número de cabezas que puede tener un modelo, ni en el número de codificadores. Las columnas vertebrales, las cabezas, los codificadores, los decodificadores y otras abstracciones de alto nivel son módulos o bloques construidos a partir de múltiples capas lineales, convolucionales y de otros tipos de redes neuronales básicas. Podemos intercambiarlas y combinarlas para producir diferentes arquitecturas de modelos a medida, del mismo modo que utilizamos diferentes marcos y bibliotecas de terceros en el desarrollo de software tradicional. Esto, por ejemplo, nos permite codificar una frase en un vector latente que luego puede descodificarse en una imagen.

Modelos básicos para el procesamiento del lenguaje natural

Los modelos modernos de Procesamiento del Lenguaje Natural (PLN) como ChatGPT entran en la categoría de Transformadores. El concepto de transformador se introdujo en el artículo de 2017 "Attention Is All You Need" de Vaswani et al. y desde entonces se ha convertido en la base de muchos modelos de vanguardia en PNL. La innovación clave del modelo transformador es el uso de mecanismos de autoatención, que permiten al modelo sopesar la importancia de las diferentes partes de la entrada al hacer predicciones. Estos modelos utilizan lo que se denomina una "incrustación", que es una representación matemática de una entrada discreta, como una palabra, un carácter o un fragmento de imagen, en un espacio continuo de alta dimensión. Las incrustaciones se utilizan como entrada para los mecanismos de autoatención y otras capas del modelo transformador para realizar la tarea específica que se esté llevando a cabo, como la traducción de idiomas o el resumen de textos. ChatGPT no es el primero ni el único modelo de transformador que existe. De hecho, los transformadores se han aplicado con éxito en muchos otros ámbitos, como la visión por computadora y el procesamiento de sonido.

Entonces, si ChatGPT se construye sobre conceptos ya existentes, ¿qué lo hace tan diferente de todas las demás arquitecturas de modelos de última generación que ya se utilizan hoy en día? Una explicación simplificada de lo que distingue a un modelo básico de un modelo de aprendizaje profundo "normal" es la inmensa escala del conjunto de datos de entrenamiento, así como el número de parámetros entrenables que tiene un modelo básico en comparación con un modelo generativo tradicional. Una red neuronal excepcionalmente grande entrenada en un conjunto de datos verdaderamente masivo proporciona al modelo resultante la capacidad de generalizarse a una gama más amplia de casos de uso que tus hermanos más estrechamente enfocados, sirviendo así de base para un número incalculable de nuevas tareas y aplicaciones. Un modelo tan amplio codifica muchos patrones, características y relaciones útiles en tus datos de entrenamiento. Podemos extraer este acervo de conocimientos sin necesidad de volver a entrenar toda la parte codificadora del modelo. Podemos acoplar diferentes cabezas nuevas y utilizar técnicas de aprendizaje por transferencia y de ajuste fino para adaptar el mismo modelo a diferentes tareas. Así es como un solo modelo (como Stable Diffusion) puede realizar a la vez tareas de conversión de texto en imagen, de imagen en imagen, de repintado, de superresolución e incluso de generación de música.

Desafíos en la formación de Modelos Fundacionales

La potencia de cálculo de la GPU y los recursos humanos necesarios para entrenar desde cero un modelo básico como GPT eclipsan los disponibles para desarrolladores individuales y equipos pequeños. Los modelos son sencillamente demasiado grandes y el conjunto de datos demasiado difícil de manejar. Estos modelos no pueden (por ahora) entrenarse de forma rentable de principio a fin y repetirse utilizando hardware básico.

Aunque los conceptos pueden estar bien explicados por la investigación publicada y entendidos por muchos científicos de datos, las habilidades de ingeniería y los costos exorbitantes necesarios para conectar cientos de nodos de GPU durante meses a la vez estirarían los presupuestos de la mayoría de las organizaciones. Y eso sin tener en cuenta los costos de acceso a los conjuntos de datos, almacenamiento y transferencia de datos asociados a la alimentación del modelo con cantidades masivas de muestras de entrenamiento.

Hay varias razones por las que modelos como ChatGPT están actualmente fuera del alcance de los particulares para formarse:

  1. Datos necesarios: El entrenamiento de un gran modelo lingüístico como ChatGPT requiere una cantidad masiva de datos de texto. Estos datos deben ser de alta calidad y diversos, y suelen obtenerse de diversas fuentes, como libros, artículos y sitios web. Estos datos también se preprocesan para obtener el mejor rendimiento, lo que supone una tarea adicional que requiere conocimientos y experiencia. Los costos de almacenamiento, transferencia de datos y carga de datos son tustancialmente más elevados que los que se utilizan para modelos con un enfoque más limitado.
  2. Recursos informáticos: ChatGPT requiere importantes recursos informáticos para entrenarse. Esto incluye clústeres en red de potentes GPU y una gran cantidad de memoria volátil y no volátil. La ejecución de un clúster informático de este tipo puede alcanzar fácilmente los cientos de miles por experimento.
  3. Tiempo de formación: Entrenar un modelo básico puede llevar varias semanas o incluso meses, dependiendo de los recursos informáticos disponibles. Cablear y alquilar tantos recursos requiere mucha habilidad y un generoso compromiso de tiempo, por no hablar de los costos de computación en la nube asociados.
  4. Experiencia: Para llevar a buen término un curso de formación se requieren conocimientos de Machine Learning, procesamiento del lenguaje natural, ingeniería de datos, infraestructura en la nube, redes y mucho más. La mayoría de las personas no pueden adquirir fácilmente este amplio conjunto de competencias interdisciplinares.

Acceso a modelos de IA preentrenados

Dicho esto, hay modelos preentrenados disponibles, y algunos pueden ajustarse con una menor cantidad de datos y recursos para un conjunto de tareas más específico y reducido, lo que constituye una opción más accesible para particulares y organizaciones más pequeñas.

El entrenamiento de Stable Diffusion requirió 600.000 dólares, el equivalente a 150.000 horas de GPU. Es decir, un cluster de 256 GPUs funcionando 24 horas al día, 7 días a la semana durante casi un mes. Stable Diffusion se considera una reducción de costos en comparación con GPT. Por lo tanto, aunque es posible entrenar tu propio modelo de base utilizando proveedores de nube comerciales como AWS, GCP o Azure, el tiempo, el esfuerzo, la experiencia necesaria y el costo total de cada iteración imponen limitaciones a su uso. Existen muchas soluciones y técnicas para reutilizar y volver a entrenar parcialmente estos modelos, pero por ahora, si quieres entrenar tu propio modelo básico desde cero, lo mejor que puedes hacer es solicitarlo a una de las pocas empresas que tienen acceso a los recursos necesarios para llevar a cabo esta tarea.

Comunicate con nosotros

Si está listo para aprovechar la inteligencia artificial y las soluciones de aprendizaje automático, póngase en contacto con nosotros hoy mismo. Kopius es líder en consultoría y servicios de tecnología digital nearshore.


Recursos adicionales:


Tendencias de datos: Seis formas en que los datos cambiarán los negocios a partir de 2023


Por Kristina Scott

La cantidad de datos es enorme y crece cada vez más. Hemos rastreado seis grandes tendencias basadas en datos para el año que viene.

Analítica digital visualización de datos, calendario financiero, monitor de pantalla en perspectiva

Los datos son una de las oportunidades más innovadoras y de mayor crecimiento en la actualidad para dar forma a nuestra forma de trabajar y liderar. IDC predice que, para 2024, la incapacidad de llevar a cabo una estrategia basada en los datos y la IA afectará negativamente al 75 % de las mayores empresas públicas del mundo. Y para 2025, el 50% de esas empresas promoverán la toma de decisiones basada en datos mediante la integración de análisis en su software empresarial (frente al 33% en 2022), lo que impulsará la demanda de más soluciones de datos y empleados expertos en datos.

Aquí mostramos cómo cambiarán las tendencias de datos a partir de 2023:

  1. La democratización de los datos impulsa la cultura de datos

Si cree que los datos sólo son relevantes para los analistas con conocimientos avanzados de ciencia de datos, tenemos noticias para usted. La democratización de los datos es una de las tendencias más importantes en materia de datos. El estudio de Gartner prevé que el 80 % de las iniciativas basadas en datos que se centran en los resultados empresariales se convertirán en funciones empresariales esenciales en 2025.

Las organizaciones están creando una cultura de datos mediante la atracción de talentos expertos en datos y la promoción del uso de datos y la educación de los empleados a todos los niveles. Para apoyar la democratización de los datos, estos deben ser exactos, fáciles de digerir y accesibles.

Según un estudio de McKinsey, las empresas con mejores resultados cuentan con un responsable de datos en la dirección ejecutiva y ponen los datos y las herramientas de autoservicio al alcance de todos los empleados de primera línea.

2. La hiperautomatización y los datos en tiempo real reducen los costos

Los datos en tiempo real y su automatización serán las herramientas de big data más valiosas para las empresas en los próximos años. Gartner prevé que, para 2024, la hiperautomatización rápida permitirá a las organizaciones reducir los costos operativos en un 30 %. Y para 2025, el mercado de software de hiperautomatización alcanzará casi los 860.000 millones de dólares.

3. La inteligencia artificial y el Machine Learning (IA y ML) siguen revolucionando las operaciones

La capacidad de implementar IA y ML en las operaciones será un diferenciador significativo. Verta Insights descubrió que los líderes del sector que superan financieramente a tus homólogos tienen más del doble de probabilidades de lanzar proyectos, productos o funciones de IA y han realizado inversiones en IA/ML a un nivel superior que tus homólogos.

Las tecnologías de IA y ML impulsarán el mercado del procesamiento del lenguaje natural (PLN). El PLN permite a las máquinas comprender el lenguaje humano hablado y escrito y comunicarse con nosotros. Según un estudio de MarketsandMarkets, el tamaño del mercado del PLN pasará de 15.700 millones de dólares en 2022 a 49.400 millones en 2027.

Hemos asistido a la oleada de interés por ChatGPT de OpenAI, un software de generación de lenguaje conversacional. Esta tecnología altamente escalable podría revolucionar toda una serie de casos de uso, desde resumir cambios en documentos legales hasta cambiar por completo nuestra forma de buscar información a través de interacciones similares al diálogo, afirma CNBC.

Esto puede tener implicaciones en muchas industrias. Por ejemplo, el sector sanitario ya emplea la IA para recomendaciones de diagnóstico y tratamiento, participación de los pacientes y tareas administrativas. 

4. La arquitectura de datos conduce a la modernización

La arquitectura de datos acelera la transformación digital porque resuelve problemas de datos complejos mediante la automatización de procesos de datos básicos, aumenta la calidad de los datos y minimiza los silos y los errores manuales. Las empresas se modernizan apoyándose en la arquitectura de datos para conectar datos entre plataformas y usuarios. Las empresas adoptarán nuevo software, agilizarán las operaciones, encontrarán mejores formas de utilizar los datos y descubrirán nuevas necesidades tecnológicas.

Según MuleSoft, las organizaciones están preparadas para automatizar la toma de decisiones, mejorar dinámicamente el uso de los datos y reducir los esfuerzos de gestión de datos hasta en un 70% mediante la incorporación de análisis en tiempo real en su arquitectura de datos.

5. Las soluciones multi-nube optimizan el almacenamiento de datos

El uso de la nube se está acelerando. Las empresas optarán cada vez más por una nube híbrida, que combina los mejores aspectos de las nubes privadas y públicas.

Las empresas pueden acceder a los datos recopilados por servicios en la nube de terceros, lo que reduce la necesidad de crear sistemas personalizados de recopilación y almacenamiento de datos, que suelen ser complejos y caros.

En el Informe sobre el estado de la nube de Flexera, el 89% de los encuestados tiene una estrategia multi-nube, y el 80% está adoptando un enfoque híbrido.

6. Una mejor gobernanza y regulación de los datos protegen a los usuarios

Una gobernanza de datos eficaz se convertirá en la base de unos datos impactantes y valiosos. 

A medida que más países aprueben leyes para regular el uso de diversos tipos de datos, la gobernanza de datos pasa a un primer plano en las prácticas de datos. El GDPR europeo, la PIPEDA canadiense y la PIPL china no serán las últimas leyes que se introduzcan para proteger los datos de los ciudadanos.

Gartner ha pronosticado que en 2023 el 65 % de la población mundial estará sujeta a normativas como el GDPR. A su vez, será más probable que los usuarios confíen tus datos a las empresas si saben que están más reguladas.

Valence trabaja con tus clientes para implementar un marco de gobernanza, encontrar fuentes de datos y riesgos de datos, y activar la organización en torno a este enfoque innovador de la gobernanza de datos y procesos, incluyendo educación, formación y desarrollo de procesos. Más información.

Qué aportan estas tendencias de datos

A medida que transcurre
 2023, las organizaciones que comprenden las tendencias actuales de los datos pueden aprovecharlos para ser más innovadoras, estratégicas y adaptables. Nuestro equipo ayuda a los clientes con evaluaciones de datos, diseñando y estructurando activos de datos y creando soluciones modernas de gestión de datos. Integramos estratégicamente los datos en los negocios de los clientes, utilizamos el Machine Learning y la inteligencia artificial para crear perspectivas proactivas, y creamos visualizaciones de datos y cuadros de mando para que los datos tengan sentido.  

Ayudamos a nuestros clientes a desarrollar una solución y crear una arquitectura de datos moderna que admita una escalabilidad diferenciada habilitada para la nube, capacidad de autoservicio y un plazo de comercialización más rápido para nuevos productos y soluciones de datos. Más información.

Recursos adicionales:


Entrenando a las Máquinas: Una introducción a los tipos de Machine Learning


por Yuri Brigance

Anteriormente escribí sobre el aprendizaje profundo en Edge. En este post voy a describir el proceso de configuración de un flujo de trabajo de Machine Learning (ML) de principio a fin para diferentes tipos de Machine Learning.

Existen tres tipos comunes de enfoques de formación de Machine Learning, que revisaremos aquí:

  1. Supervisado
  2. Sin supervisión
  3. Refuerzo

Y puesto que todos los enfoques de aprendizaje requieren algún tipo de datos de entrenamiento, también compartiré tres métodos para construir su conjunto de datos de entrenamiento a través de:

  1. Anotación humana
  2. Anotación automática
  3. Síntesis / Simulación

Aprendizaje supervisado:

El aprendizaje supervisado utiliza un conjunto de entrenamiento etiquetado de entradas y salidas para enseñar a un modelo a producir el resultado deseado. Este enfoque suele basarse en una función de pérdida, que se utiliza para evaluar la precisión del entrenamiento hasta que el error se ha minimizado lo suficiente.

Podría decirse que este tipo de aprendizaje es el más común y, en cierto modo, imita la forma en que un profesor explica la materia a un alumno mediante ejemplos y repeticiones.

Uno de los inconvenientes del aprendizaje supervisado es que requiere grandes cantidades de datos de entrenamiento etiquetados con precisión. Estos datos de entrenamiento pueden ser anotados manualmente (por humanos), mediante anotación automática (anotados por otros modelos o algoritmos) o completamente sintéticos (por ejemplo, imágenes renderizadas o telemetría simulada). Cada enfoque tiene tus pros y tus contras, y pueden combinarse según las necesidades.

Aprendizaje no supervisado:

A diferencia del aprendizaje supervisado, en el que un profesor explica un concepto o define un objeto, el aprendizaje no supervisado da a la máquina la libertad de desarrollar la comprensión por sí misma. A menudo, con el aprendizaje no supervisado, las máquinas pueden encontrar tendencias y patrones que, de otro modo, una persona pasaría por alto. Con frecuencia, estas correlaciones eluden la intuición humana común y pueden describirse como no semánticas. Por eso se suele aplicar el término "caja negra" a estos modelos, como el asombroso GPT-3.

Con el aprendizaje no supervisado, proporcionamos datos al modelo de Machine Learning que no están etiquetados ni estructurados. A continuación, la computadora identifica grupos de datos similares o patrones en los datos. Es posible que la computadora no encuentre los mismos patrones o grupos que esperábamos, ya que aprende a reconocer los grupos y patrones por sí mismo. En muchos casos, no estar limitados por nuestras ideas preconcebidas puede revelar resultados y oportunidades inesperados.   

Aprendizaje por refuerzo:

El aprendizaje por refuerzo enseña a una máquina a actuar de forma semisupervisada. Las máquinas son recompensadas por las respuestas correctas, y la máquina quiere ser recompensada tanto como sea posible. El aprendizaje por refuerzo es una forma eficaz de entrenar a una máquina para que aprenda una tarea complicada, como jugar a videojuegos o enseñar a andar a un robot con patas.

La máquina está motivada para ser recompensada, pero no comparte los objetivos del operario. Por eso, si la máquina puede encontrar la manera de "engañar al sistema" y obtener más recompensa a costa de la precisión, lo hará con avidez. Del mismo modo que las máquinas pueden encontrar patrones que los humanos pasan por alto en el aprendizaje no supervisado, las máquinas también pueden encontrar patrones que pasan por alto en el aprendizaje reforzado y explotar esos patrones invisibles para recibir un refuerzo adicional. Por eso tu experimento debe ser hermético para minimizar la explotación por parte de las máquinas.

Por ejemplo, un twitterbot de inteligencia artificial entrenado con aprendizaje por refuerzo fue recompensado por maximizar la participación. El twitterbot aprendió que la participación era muy alta cuando publicaba sobre Hitler.

Este comportamiento de las máquinas no siempre es un problema: por ejemplo, el aprendizaje por refuerzo ayuda a las máquinas a encontrar fallos en los videojuegos que pueden aprovecharse si no se resuelven.

Conjuntos de datos:

El Machine Learning implica disponer de datos con los que aprender. La calidad y cantidad de los datos de entrenamiento tiene mucho que ver con el rendimiento del algoritmo. Un conjunto de datos de entrenamiento suele consistir en muestras u observaciones. Cada muestra de entrenamiento puede ser una imagen, un clip de audio, un fragmento de texto, una secuencia de registros históricos o cualquier otro tipo de datos estructurados. Dependiendo del enfoque de Machine Learning que adopte, cada muestra también puede incluir anotaciones (salidas / soluciones correctas) que se utilizan para enseñar el modelo y verificar los resultados. Los conjuntos de datos de entrenamiento suelen dividirse en grupos en los que el modelo sólo se entrena en un subconjunto de todos los datos disponibles. Esto permite que una parte del conjunto de datos se utilice para validar el modelo, para garantizar que el modelo ha generalizado suficientes datos para funcionar bien en datos que no ha visto antes.

Independientemente del enfoque de entrenamiento que adopte, su modelo puede ser propenso a sesgos que pueden introducirse inadvertidamente a través de datos de entrenamiento desequilibrados, o la selección de entradas incorrectas. Un ejemplo es una herramienta de evaluación del riesgo penal mediante IA utilizada por los tribunales para evaluar la probabilidad de reincidencia de un acusado basándose en su perfil. Debido a que el modelo fue entrenado con datos históricos, que incluían años de desproporcionada persecución de grupos minoritarios y de bajos ingresos por parte de las fuerzas del orden, el modelo resultante produjo puntuaciones de riesgo más altas para los individuos de minorías y bajos ingresos. Es importante recordar que la mayoría de los modelos de Machine Learning detectan correlaciones estadísticas, y no necesariamente causalidades.

Por lo tanto, es muy conveniente disponer de un conjunto de datos de entrenamiento amplio y equilibrado para el algoritmo, que no siempre está disponible o es fácil de obtener. Se trata de una tarea que las empresas que desean aplicar el Machine Learning a tus casos de uso pueden pasar por alto en un primer momento. La adquisición del conjunto de datos es tan importante como la propia arquitectura del modelo.

Una forma de garantizar que el conjunto de datos de entrenamiento esté equilibrado es mediante el enfoque del Diseño de Experimentos (DOE), en el que se planifican y analizan experimentos controlados para evaluar los factores que controlan el valor de un parámetro o grupo de parámetros de salida. El DOE permite manipular múltiples factores de entrada, determinando su efecto en la respuesta del modelo. De este modo, se pueden excluir ciertas entradas que pueden dar lugar a resultados sesgados, así como comprender mejor las complejas interacciones que se producen en el modelo.

He aquí tres ejemplos de cómo se recopilan, y en algunos casos se generan, los datos de formación:

  1. Datos etiquetados en humanos:

Lo que denominamos datos etiquetados humanos es cualquier cosa que haya sido anotada por un ser humano vivo, ya sea mediante crowdsourcing o consultando una base de datos y organizando el conjunto de datos. Un ejemplo podría ser la anotación de puntos de referencia faciales alrededor de los ojos, la nariz y la boca. Estas anotaciones son bastante buenas, pero en algunos casos pueden ser imprecisas. Por ejemplo, la definición de "la punta de la nariz" puede ser interpretada de forma diferente por las distintas personas encargadas de etiquetar el conjunto de datos. Incluso tareas sencillas, como dibujar un recuadro alrededor de manzanas en fotos, pueden tener "ruido" porque el recuadro puede tener más o menos relleno, puede estar ligeramente descentrado, etcétera.

Si se dispone de datos etiquetados por personas, es un buen comienzo. Pero contratar anotadores humanos puede ser caro y propenso a errores. Existen varios servicios y herramientas, desde AWS SageMaker GroundTruth hasta varias startups que facilitan el trabajo de etiquetado a los anotadores y también conectan a los proveedores de anotaciones con los clientes.

Podría ser posible encontrar un conjunto de datos existente en el dominio público. En un ejemplo con puntos de referencia faciales, tenemos WFLW, iBUG y otros conjuntos de datos disponibles públicamente que son perfectamente adecuados para el entrenamiento. Muchos tienen licencias que permiten su uso comercial. Es una buena idea investigar si alguien ya ha producido un conjunto de datos que se adapte a tus necesidades, y podría valer la pena pagar por un pequeño conjunto de datos para arrancar su proceso de aprendizaje.

2. Anotación automática:

En términos sencillos, la anotación automática consiste en utilizar un algoritmo existente o crear uno nuevo para añadir anotaciones a los datos brutos de forma automática. Parece el huevo y la gallina, pero es más factible de lo que parece.

Por ejemplo, es posible que ya disponga de un conjunto de datos parcialmente etiquetado. Imaginemos que está etiquetando flores en fotos de ramos y quiere identificar cada flor. Tal vez ya tenga una parte de estas imágenes anotadas con tulipanes, girasoles y narcisos. Pero todavía hay imágenes en el conjunto de datos de entrenamiento que contienen tulipanes que no han sido anotados, y nuevas imágenes siguen llegando de tus fotógrafos.

¿Qué se puede hacer? En este caso, puede tomar todas las imágenes existentes en las que ya se han anotado los tulipanes y entrenar un modelo simple de detector de sólo tulipanes. Una vez que este modelo alcance una precisión suficiente, podrá completar automáticamente las anotaciones que falten sobre los tulipanes. Se puede seguir haciendo lo mismo con las demás flores. De hecho, puede recurrir a la colaboración de personas para que anoten sólo un pequeño lote de imágenes con una nueva flor específica, y eso debería ser suficiente para construir un detector específico que pueda anotar automáticamente el resto de las muestras. De este modo, se ahorra tiempo y dinero al no tener que anotar cada imagen del conjunto de entrenamiento o cada nueva imagen sin procesar. El conjunto de datos resultante puede utilizarse para entrenar un detector de producción más completo, capaz de detectar todos los tipos de flores. La anotación automática también le ofrece la posibilidad de seguir mejorando su modelo de producción mediante la anotación continua y automática de nuevos datos en bruto a medida que llegan. De este modo se consigue un ciclo cerrado de formación y mejora continuas.

Otro ejemplo es el de las anotaciones incompatibles. Por ejemplo, es posible que desee detectar posiciones 3D de cajas rectangulares a partir de imágenes de webcam, pero todo lo que tiene son puntos de referencia 2D para las esquinas visibles de las cajas. ¿Cómo estimar y anotar las esquinas ocluidas de cada caja, por no hablar de averiguar su posición en el espacio 3D? Pues bien, puede utilizar un modelo morphable de análisis de componentes principales (PCA) de una caja y ajustarlo a puntos de referencia 2D, y luego desproyectar la forma 3D detectada en el espacio 3D utilizando intrínsecos de la cámara. De este modo se obtienen anotaciones 3D completas, incluidas las esquinas ocluidas. Ahora puede entrenar un modelo que no requiera ajuste PCA.

En muchos casos se puede elaborar un algoritmo determinista convencional para anotar las imágenes. Claro que estos algoritmos pueden ser demasiado lentos para funcionar en tiempo real, pero no se trata de eso. Se trata de etiquetar los datos brutos para entrenar un modelo que pueda inferirse en milisegundos.

La anotación automática es una opción excelente para crear rápidamente un enorme conjunto de datos de entrenamiento, especialmente si los datos ya están parcialmente etiquetados. Sin embargo, al igual que ocurre con las anotaciones humanas, la anotación automática puede introducir errores y ruido. Considere cuidadosamente qué anotaciones deben descartarse basándose en una métrica de confianza o en alguna revisión humana, por ejemplo. Aunque incluya algunas muestras erróneas, es probable que el modelo generalice con éxito con un conjunto de entrenamiento lo suficientemente grande, y las muestras erróneas pueden filtrarse con el tiempo.

3. Datos sintéticos

Con los datos sintéticos, las máquinas se entrenan en renderizados o en simulaciones hiperrealistas: pensemos, por ejemplo, en un videojuego sobre los desplazamientos urbanos. En las aplicaciones de visión por computadora, muchos datos sintéticos se obtienen mediante renderizado, ya se trate de personas, coches, escenas enteras u objetos individuales. Los objetos 3D renderizados pueden colocarse en diversos entornos simulados para aproximarse al caso de uso deseado. Tampoco nos limitamos a los renderizados, ya que es posible producir datos sintéticos para simulaciones numéricas en las que el comportamiento de las variables individuales es bien conocido. Por ejemplo, el modelado de la dinámica de fluidos o la fusión nuclear es extremadamente intensivo desde el punto de vista computacional, pero las reglas se conocen bien: son las leyes de la física. Por tanto, si queremos aproximarnos rápidamente a la dinámica de fluidos o a las interacciones del plasma, primero podríamos producir datos simulados utilizando la computación clásica y, a continuación, introducir estos datos en un modelo de Machine Learning para acelerar la predicción mediante la inferencia ML.

Existen numerosos ejemplos de aplicaciones comerciales de los datos sintéticos. Por ejemplo, ¿qué pasaría si tuviéramos que anotar los recibos de compra de un minorista internacional a partir de recibos en papel escaneados sin procesar? Sin metadatos, tendríamos que revisar y anotar manualmente miles de imágenes de recibos para evaluar las intenciones del comprador y su significado semántico. Con un generador de datos sintéticos, podemos parametrizar las variaciones de un recibo y representarlas con precisión para producir imágenes sintéticas con anotaciones completas. Si descubrimos que nuestro modelo no funciona bien en un escenario concreto, podemos renderizar más muestras según sea necesario para rellenar los huecos y volver a entrenar.

Otro ejemplo real se da en la fabricación, donde los robots "pick-and-place" utilizan la visión por computadora en una cadena de montaje para empaquetar u ordenar y ensamblar productos y componentes. Los datos sintéticos pueden aplicarse en este escenario porque podemos utilizar los mismos modelos 3D que se usaron para crear moldes de inyección de los distintos componentes para hacer renderizaciones como muestras de entrenamiento que enseñan a las máquinas. Se pueden renderizar fácilmente miles de variaciones de dichos objetos volteándolos y rotándolos, así como simular diferentes condiciones de iluminación. Las anotaciones sintéticas serán siempre 100% precisas.

Aparte de la renderización, otro enfoque consiste en utilizar imágenes generadas por redes generativas adversariales (GAN) para crear variación en el conjunto de datos. El entrenamiento de los modelos GAN suele requerir un número decente de muestras en bruto. Con un autoencoder GAN completamente entrenado es posible explorar el espacio latente y ajustar los parámetros para crear variación adicional. Aunque es más complejo que los motores de renderizado clásicos, los GAN están ganando adeptos y tienen su lugar en el ámbito de la generación de datos sintéticos. No hay más que ver estos retratos generados de gatos falsos.

Elegir el enfoque adecuado:

El Machine Learning está en auge en todos los sectores y en empresas de todos los tamaños. Dependiendo del tipo de datos, la cantidad y la forma en que estén almacenados y estructurados, Valence puede recomendar un camino a seguir que podría utilizar una combinación de los enfoques de generación de datos y formación descritos en este post. El orden en que se aplican estos enfoques varía según el proyecto, y se reduce aproximadamente a cuatro fases:

  1. Puesta en marcha del proceso de formación. Esto incluye la recopilación o generación de datos de entrenamiento iniciales y el desarrollo de una arquitectura de modelo y un enfoque de entrenamiento. Puede que sea necesario realizar algún análisis estadístico (DOE) para determinar las mejores entradas para producir los resultados y predicciones deseados.
  2. Construir la infraestructura de formación. El acceso a la unidad de procesamiento gráfico (GPU) en la nube puede resultar caro. Aunque algunos modelos pueden entrenarse en hardware local al principio del proyecto, a largo plazo es deseable contar con una infraestructura de entrenamiento escalable y sin servidores, así como con una estrategia adecuada de gestión del ciclo de vida de los experimentos de ML.
  3. Ejecución de experimentos. En esta fase empezamos a entrenar el modelo, ajustando el conjunto de datos y experimentando con la arquitectura del modelo y los hiperparámetros. Recogeremos muchas métricas de los experimentos para medir las mejoras.
  4. Infraestructura de inferencia. Esto incluye integrar el modelo entrenado en su sistema y ponerlo a trabajar. Puede tratarse de una inferencia basada en la nube, en cuyo caso elegiremos el mejor enfoque sin servidor que minimice los gastos en la nube al tiempo que maximiza el rendimiento y la estabilidad. También puede ser inferencia en el borde, en cuyo caso puede que tengamos que optimizar el modelo para que se ejecute en una CPU de borde de baja potencia, GPU, TPU, VPU, FPGA o una combinación de ellas. 

Lo que me gustaría que todos los lectores entendieran es que estos modelos son sencillos en su sofisticación. Hay un proceso de descubrimiento al inicio de cada proyecto en el que identificamos las necesidades de datos de entrenamiento y qué arquitectura de modelo y enfoque de entrenamiento obtendrán el resultado deseado. Parece relativamente sencillo desencadenar una red neuronal en una gran cantidad de datos, pero hay muchos detalles a tener en cuenta a la hora de configurar los flujos de trabajo de Machine Learning. Al igual que la investigación física en el mundo real, el Machine Learning requiere la creación de un "laboratorio digital" que contenga las herramientas y materias primas necesarias para investigar hipótesis y evaluar resultados. El Machine Learning tiene tal variedad de aplicaciones realmente increíbles que es probable que haya un lugar para él en su organización como parte de su viaje digital.

Recursos adicionales: