5 industrias ganadoras en inteligencia artificial


Por Lindsay Cox

La inteligencia aumentada (IA) y el Machine Learning (ML) ya eran las tecnologías en el radar de todo el mundo cuando empezó el año, y el lanzamiento de Modelos Fundacionales como ChatGPT no hizo más que aumentar el entusiasmo sobre las formas en que la tecnología de datos puede cambiar nuestras vidas y nuestros negocios. Estamos entusiasmados con estas cinco industrias que están ganando en inteligencia artificial.

Como organización, los proyectos de datos e inteligencia artificial son nuestro punto fuerte. ChatGPT está muy de actualidad en estos momentos (y es una herramienta superguay; puedes echarle un vistazo aquí si aún no lo has hecho).

También disfruté viendo a Watson jugar a Jeopardy como antiguo IBMer 😊.

Hay algunos ejemplos reales de cómo cinco organizaciones están triunfando con la IA. Hemos incluido esos casos de uso junto con ejemplos en los que nuestros clientes han liderado proyectos relacionados con la IA.

Puede encontrar más casos prácticos sobre transformación digital, datos y desarrollo de aplicaciones de software en nuestra sección de casos prácticos del sitio web.

Marcas de consumo: Visualizar es fácil

Las marcas están ayudando a los clientes a visualizar el resultado de tus productos o servicios utilizando la visión por computadora y la IA. Por ejemplo, los consumidores pueden probarse virtualmente un nuevo par de gafas, un nuevo corte de pelo o un traje nuevo. La IA también puede utilizarse para visualizar un cuarto de baño o un jardín remodelados.

Ayudamos a una marca de odontología a distancia que da prioridad a la web a desarrollar una solución de visión por computadora para mostrar a un cliente cómo quedaría su sonrisa tras un posible tratamiento. Emparejamos la solución de visión por computadora con una aplicación web móvil para que los clientes pudieran "ver su nuevo selfie". 

Las preguntas de los consumidores pueden resolverse con mayor rapidez y precisión

El servicio de atención al cliente puede determinar la fidelidad del cliente, por lo que los chatbots y los asistentes virtuales se están implementando a gran escala para reducir el tiempo medio de gestión, la velocidad media de respuesta y aumentar las resoluciones en la primera llamada.

Trabajamos con un sistema sanitario regional para diseñar y desarrollar una "puerta de entrada digital" que mejore la experiencia de pacientes y proveedores. La solución incluye una búsqueda web interactiva y funciones de chatbot. Al ofrecer respuestas más rápidas a pacientes y proveedores, el sistema sanitario puede aumentar la satisfacción y mejorar la atención y los resultados de los pacientes.

Finanzas: Prevención del fraude

Existe una gran oportunidad para que las organizaciones de servicios financieros utilicen soluciones de IA y aprendizaje profundo para reconocer transacciones dudosas y frustrar el fraude con tarjetas de crédito, lo que ayuda a reducir costos. También conocida como detección de anomalías, los bancos generan enormes volúmenes de datos que pueden utilizarse para entrenar modelos de Machine Learning con el fin de detectar transacciones fraudulentas.

Agricultura: Apoyo a los objetivos ESG mediante una explotación más sostenible

Las tecnologías de datos como la visión por computadora pueden ayudar a las organizaciones a ver cosas que a los humanos se nos escapan. Esto puede ayudar con la crisis climática, ya que puede incluir el desperdicio de agua, el desperdicio de energía y los residuos de vertederos mal dirigidos.

El sector de la tecnología agrícola ya está aprovechando los datos y la IA, puesto que nuestros productores de alimentos y agricultores están sometidos a una presión extrema para producir más cosechas con menos agua. Por ejemplo, John Deere creó un robot llamado "See and Spray" que utiliza tecnología de visión por computadora para controlar y rociar herbicida en las plantas de algodón en cantidades precisas.

Trabajamos con PrecisionHawk para utilizar la visión por computadora combinada con la fotografía basada en drones para analizar cultivos y campos con el fin de ofrecer a los agricultores información precisa para gestionar mejor los cultivos. Los datos producidos gracias al proyecto de visión por computadora ayudaron a los agricultores a comprender tus necesidades y definir estrategias con mayor rapidez, lo que es fundamental en agricultura. (enlace al estudio de caso)

Asistencia sanitaria: Identificar y prevenir enfermedades

La IA tiene un importante papel que desempeñar en la atención sanitaria, con usos que van desde la asistencia telefónica al paciente hasta el diagnóstico y tratamiento de pacientes.

Por ejemplo, las empresas sanitarias están creando sistemas de apoyo a la toma de decisiones clínicas que avisan al médico con antelación cuando un paciente corre el riesgo de sufrir un infarto de miocardio o un ictus, lo que añade un tiempo crítico a su ventana de respuesta.

El aprendizaje electrónico asistido por IA también está ayudando a diseñar itinerarios de aprendizaje, sesiones de tutoría personalizadas, análisis de contenidos, marketing dirigido, calificación automática, etc. La IA tiene un papel que desempeñar a la hora de hacer frente a la necesidad crítica de formación sanitaria tras la escasez de personal sanitario.

La inteligencia artificial y el Machine Learning se perfilan como las tecnologías más revolucionarias del momento. Estos son algunos ejemplos que ponen de relieve el amplio uso y los beneficios de las tecnologías de datos en todos los sectores. La lista real de casos de uso y ejemplos es infinita y sigue creciendo.

¿Qué debe ocurrir para que su empresa triunfe en inteligencia artificial? Para obtener más información sobre inteligencia artificial y Machine Learning, póngase en contacto con nosotros hoy mismo. Kopius es líder en consultoría y servicios de tecnología digital nearshore.


Recursos adicionales:


Cuatro preguntas esenciales sobre los prejuicios de la IA


Por Hayley Pike

A medida que la IA se integra cada vez más en las empresas, también lo hace el sesgo de la IA.

El 2 de febrero de 2023, Microsoft publicó una declaración del vicepresidente y presidente Brad Smith sobre la IA responsable. A raíz de la nueva influencia de ChatGPT y Stable Diffusion, tener en cuenta la historia de los prejuicios raciales en las tecnologías de IA es más importante que nunca.

El debate en torno a los prejuicios raciales en la IA lleva años en marcha y, con él, han surgido indicios de problemas. Google despidió a dos de tus investigadores, el Dr. Timnit Gebru y la Dra. Margaret Mitchell, después de que publicaran artículos de investigación en los que se describía cómo la IA de reconocimiento facial y del lenguaje de Google tenía un sesgo en contra de las mujeres de color. Y el software de reconocimiento de voz de Amazon, Microsoft, Apple, Google e IBM identificó erróneamente el habla de personas negras en un 35%, en comparación con el 19% del habla de personas blancas.

En noticias más recientes, la empresa de tecnología DEI Textio analizó ChatGPT y demostró que se inclinaba a escribir anuncios de empleo para candidatos más jóvenes, hombres y blancos, y que el sesgo aumentaba en los anuncios de empleos más específicos.

Si está trabajando en un producto o proyecto de IA, debe tomar medidas para abordar el sesgo de la IA. Aquí tienes cuatro preguntas importantes para que tu IA sea más inclusiva:

  1. ¿Hemos incorporado evaluaciones éticas de la IA en el flujo de trabajo de producción desde el principio del proyecto? Los recursos de IA responsable de Microsoft incluyen una guía de evaluación de proyectos.
  2. ¿Estamos preparados para revelar los puntos fuertes y las limitaciones de nuestras fuentes de datos? La inteligencia artificial es tan sesgada como las fuentes de datos de las que se nutre. El proyecto debe revelar a quién priorizan los datos y a quién excluyen.
  3. ¿Es diverso nuestro equipo de producción de IA? ¿Cómo ha tenido en cuenta las perspectivas de las personas que utilizarán su producto de IA y que no están representadas en el equipo del proyecto o en la industria tecnológica?
  4. ¿Hemos escuchado a diversos expertos en IA? La Dra.Joy Buolamwini y la Dra. Inioluwa Deborah Raji, actualmente en el MIT Media Lab, son dos investigadoras negras pioneras en el campo del sesgo racial en la IA.

Rediet Adebe es informático y cofundador de Black in AI. Adebe lo resume así:

"La investigación en IA también debe reconocer que los problemas que queremos resolver no son puramente técnicos, sino que interactúan con un mundo complejo lleno de desafíos estructurales y desigualdades. Por lo tanto, es crucial que los investigadores de IA colaboren estrechamente con personas que posean formación y conocimientos especializados diversos."

Para obtener más información sobre inteligencia artificial y Machine Learning, póngase en contacto con nosotros hoy mismo. Kopius es líder en consultoría y servicios de tecnología digital nearshore.


Recursos adicionales:


ChatGPT y modelos de fundación: El futuro del trabajo asistido por IA


Por Yuri Brigance

El auge de modelos generativos como ChatGPT y Stable Diffusion ha generado mucho debate sobre el futuro del trabajo y el lugar de trabajo asistido por IA. Hay una gran expectación por las nuevas e impresionantes capacidades que promete esta tecnología, así como preocupación por la pérdida de puestos de trabajo a causa de la automatización. Veamos en qué punto nos encontramos hoy, cómo podemos aprovechar estas nuevas tecnologías de texto generadas por IA para potenciar la productividad y qué cambios pueden suponer para un lugar de trabajo moderno.

¿Te quitará el trabajo ChatGPT?

Es la pregunta que todo el mundo se hace. La IA puede generar imágenes, música, texto y código. ¿Significa esto que tu trabajo como diseñador, desarrollador o redactor está a punto de automatizarse? Pues sí. Tu trabajo se automatizará en el sentido de que será mucho más eficiente, pero tú seguirás al mando.

En primer lugar, no toda automatización es mala. Antes de que se generalizaran las computadoras, los impuestos se hacían con papel y lapicera. ¿Abandonaron los programas fiscales modernos el negocio de los contables? En absoluto. Facilitó su trabajo automatizando tareas repetitivas, aburridas y repetitivas. Los contables fiscales son ahora más eficientes que nunca y pueden centrarse en dominar la legislación fiscal en lugar de perder horas empujando papel. Se ocupan de casos fiscales más complicados, personalizados y adaptados a usted o a su empresa. Del mismo modo, es justo suponer que estas nuevas herramientas generativas de IA aumentarán los trabajos creativos y los harán más eficientes y agradables, no los suplantarán por completo.

En segundo lugar, los modelos generativos se entrenan con contenidos creados por humanos. Esto molesta a muchos, especialmente a los creadores, cuyas obras se utilizan como datos de entrenamiento sin el permiso explícito del artista, lo que permite al modelo replicar su estilo artístico único. Stability.ai planea resolver este problema permitiendo a los artistas optar por que tus obras no formen parte del conjunto de datos, pero, siendo realistas, no hay forma de garantizar el cumplimiento y no hay forma definitiva de demostrar si su arte se sigue utilizando para entrenar modelos. Pero esto abre interesantes oportunidades. ¿Qué pasaría si concedieras la licencia de tu estilo a una empresa de inteligencia artificial? Si eres un artista de éxito y tu trabajo tiene demanda, podría haber un futuro en el que concedieras licencias para que tu trabajo se utilizara como datos de entrenamiento y te pagaran cada vez que se generara una nueva imagen basada en tus creaciones anteriores. Es posible que los creadores de IA responsables puedan calcular el nivel de actualizaciones de gradiente durante el entrenamiento y el porcentaje de activación neuronal asociado a muestras específicas de datos para calcular cuánto de tu arte bajo licencia fue utilizado por el modelo para generar un resultado. Del mismo modo que Spotify paga una pequeña cantidad al músico cada vez que alguien reproduce una de tus canciones, o que sitios web como Flaticon.com pagan una cantidad al diseñador cada vez que se descarga uno de tus iconos. Resumiendo, es probable que pronto veamos controles más estrictos sobre cómo se construyen los conjuntos de datos de formación en lo que respecta a las obras con licencia frente al dominio público.

Veamos algunas implicaciones positivas de este lugar de trabajo y esta tecnología asistidos por IA en relación con algunas funciones creativas y cómo esta tecnología puede agilizar determinadas tareas.

Como diseñador de interfaz de usuario, cuando diseñas interfaces web y para móviles es probable que dediques mucho tiempo a buscar imágenes de archivo. Las imágenes deben ser relevantes para la empresa, tener los colores adecuados, dejar espacio para superponer texto, etc. Algunas imágenes pueden ser oscuras y difíciles de encontrar. Se pueden pasar horas buscando la imagen de archivo perfecta. Con la IA, basta con generar una imagen a partir de un texto. Puede pedir al modelo que cambie la iluminación y los colores. ¿Necesitas espacio para un título? Utiliza inpainting para despejar una zona de la imagen. ¿Necesitas añadir un elemento específico a la imagen, como un cucurucho de helado? Muéstrale a AI dónde lo quieres y lo integrará sin problemas. ¿Necesitas buscar códigos de colores RGB/HEX complementarios? Pídele a ChatGPT que genere algunas combinaciones.

¿Va a desaparecer el trabajo de los fotógrafos? Lo más probable es que no. Siguen apareciendo nuevos dispositivos y hay que incorporarlos periódicamente a los datos de formación. Si somos inteligentes a la hora de conceder licencias de estos activos con fines de capacitación, es posible que tengas  más ingresos que antes, ya que la IA puede utilizar una parte de tu imagen y pagarte una tarifa parcial por cada solicitud muchas veces al día, en lugar de que un usuario compre una licencia por vez. Sí, hay que trabajar para habilitar esta funcionalidad, por eso es importante plantearse las cosas ahora y trabajar hacia una solución que beneficie a todos. Pero los modelos generativos entrenados hoy estarán lamentablemente obsoletos dentro de diez años, así que los modelos seguirán necesitando nuevos datos del mundo real generados por humanos para mantener su relevancia. Las empresas de IA tendrán una ventaja competitiva si pueden obtener licencias de conjuntos de datos de alta calidad, y nunca se sabe cuáles de tus imágenes utilizará la IA; incluso podría averiguar qué fotos tomar más para maximizar ese flujo de ingresos.

Los ingenieros de software, especialmente los que trabajan en servicios profesionales, a menudo tienen que alternar entre varios lenguajes de programación. Incluso en el mismo proyecto, pueden utilizar Python, JavaScript / TypeScript y Bash al mismo tiempo. Es difícil cambiar de contexto y recordar todas las peculiaridades de la sintaxis de un lenguaje en particular. ¿Cómo hacer eficientemente un bucle for en Python vs Bash? ¿Cómo desplegar un Cognito User Pool con un autorizador Lambda usando AWS CDK? Acabamos googleando estos fragmentos porque trabajar con tantos lenguajes nos obliga a recordar conceptos de alto nivel en lugar de elementos sintácticos específicos. GitHub Gist existe con el único propósito de descargar fragmentos de código útil de la memoria local (tu cerebro) a un almacenamiento externo. Con tanto que aprender, y cosas en constante evolución, es más fácil ser consciente de que existe una técnica o algoritmo concreto (y dónde buscarlo) que recordarlo con insoportable detalle como si recitáramos un poema. Herramientas como ChatGPT integradas directamente en el IDE reducirían la cantidad de tiempo que los desarrolladores dedican a recordar cómo crear una nueva clase en un lenguaje que hace tiempo que no utilizan, cómo configurar la lógica de bifurcación o construir un script que mueva un montón de archivos a AWS S3. Podrían simplemente pedirle al IDE que rellene esta repetición de tareas para pasar a resolver los desafíos algorítmicos más interesantes.

Un ejemplo de cómo usar los decoradores de Python en ChatGPT . El texto y el fragmento de código de ejemplo son muy informativos.

Para los redactores, puede ser difícil superar el bloqueo del escritor que supone no saber por dónde empezar o cómo concluir un artículo. A veces resulta difícil describir de forma concisa un concepto complicado. ChatGPT puede ser útil en este sentido, sobre todo como herramienta para buscar rápidamente información aclaratoria sobre un tema. Aunque es justificada tener precaución, como ha demostrado recientemente Stephen Wolfram, CEO de Wolfram Alpha, que argumenta de forma convincente que las respuestas de ChatGPT no siempre deben tomarse al pie de la letra... Así que la clave está en investigar por tu cuenta. Así las cosas, el modelo de OpenAI suele ser un buen punto de partida para explicar un concepto y, como mínimo, puede ofrecer pistas para seguir investigando. Pero por ahora, los escritores siempre deben verificar tus respuestas. Recordemos también que ChatGPT no ha sido entrenado con ninguna información nueva creada después del año 2021, por lo que no está al tanto de las novedades sobre la guerra en Ucrania, las cifras actuales de inflación o las recientes fluctuaciones del mercado bursátil, por ejemplo.

En conclusión

Los modelos de base como ChatGPT y Stable Diffusion pueden aumentar y agilizar los flujos de trabajo, y aún están lejos de poder amenazar directamente un puesto de trabajo. Son herramientas útiles mucho más capaces que los modelos de aprendizaje profundo de enfoque espefício, y requieren cierto grado de supervisión y precaución. ¿Serán aún mejores estos modelos dentro de 5-10 años? Sin duda. Y para entonces, puede que nos hayamos acostumbrado a ellos y tengamos varios años de experiencia trabajando con estos agentes de IA, incluidas tus peculiaridades y errores.

Hay una cosa importante que debemos tener en cuenta sobre los Modelos Fundacionales y el futuro del lugar de trabajo asistido por IA: en el presente, la capacitación sigue siendo muy costosa. No están conectados a Internet y no pueden consumir información en tiempo real, en modo de entrenamiento incremental en línea. No hay una base de datos en la que cargar los nuevos datos, lo que significa que para incorporar nuevos conocimientos, el conjunto de datos debe crecer para encapsular la información reciente, y el modelo debe afinarse o volver a entrenarse desde cero en este conjunto de datos más grande. Es difícil verificar que el modelo produzca información objetivamente correcta, ya que el conjunto de datos de entrenamiento no está etiquetado y el procedimiento de entrenamiento no está totalmente supervisado. Hay alternativas interesantes de código abierto en el horizonte (como la StableDiffusion basada en U-Net), y técnicas para ajustar partes del modelo más grande a una tarea específica, pero éstas tienen un enfoque más específico, requieren cantidad de retoques con hiperparámetros, y en general están fuera del alcance de este artículo en particular.

Es difícil predecir exactamente dónde estarán los modelos básicos dentro de cinco años y cómo influirán en el lugar de trabajo asistido por IA, ya que el campo del Machine Learning evoluciona rápidamente. Sin embargo, es probable que los modelos básicos sigan mejorando en términos de precisión y capacidad para gestionar tareas más complejas. Por ahora, sin embargo, parece que aún nos queda algo de tiempo antes de preocuparnos seriamente por perder nuestros puestos de trabajo a manos de la IA. Deberíamos aprovechar esta oportunidad para mantener ahora conversaciones importantes que garanticen que el futuro desarrollo de estos sistemas tenga una trayectoria ética.

Para obtener más información sobre nuestras soluciones de IA generativa, ponte en contacto con nosotros hoy mismo. Kopius es líder en consultoría y servicios de tecnología digital nearshore.


Recursos adicionales:


¿Qué diferencia a los modelos ChatGPT y Foundation de los modelos habituales de IA?


Por Yuri Brigance

Aquí se presenta lo que separa a los modelos fundacionales de los modelos habituales de IA. Exploramos las razones por las que estos modelos son difíciles de entrenar y cómo entenderlos en el contexto de los modelos de IA más tradicionales.

Modelo de fundación chatGPT

¿Qué son los Modelos Fundacionales?

¿Qué son los modelos básicos y en qué se diferencian de los modelos tradicionales de IA de aprendizaje profundo? El Centro de IA Centrada en el Ser Humano del Instituto Stanford define un modelo básico como "cualquier modelo entrenado con datos amplios (generalmente utilizando autosupervisión a escala) que puede adaptarse a una amplia gama de tareas posteriores". Esto describe también muchos modelos estrechos de IA, como MobileNets y ResNets, que también pueden ajustarse y adaptarse a distintas tareas.

Las distinciones clave aquí son "autosupervisión a escala" y "amplia gama de tareas".

Los modelos Foundation se entrenan con cantidades ingentes de datos sin etiquetar o semietiquetados, y el modelo contiene órdenes de magnitud más de parámetros entrenables que un modelo de aprendizaje profundo típico destinado a ejecutarse en un smartphone. Esto hace que los modelos básicos sean capaces de generalizarse a una gama mucho más amplia de tareas que los modelos más pequeños entrenados en conjuntos de datos específicos del dominio. Es un error común pensar que arrojar muchos datos a un modelo hará que de repente haga algo útil sin más esfuerzo. En realidad, estos modelos de gran tamaño son muy buenos para encontrar y codificar patrones intrincados en los datos con poca o ninguna supervisión, patrones que pueden explotarse de diversas formas interesantes, pero es necesario realizar una buena cantidad de trabajo para utilizar este conocimiento oculto aprendido de forma útil.

La arquitectura de los modelos básicos de IA

El aprendizaje no supervisado, semisupervisado y por transferencia no son conceptos nuevos y, hasta cierto punto, los modelos de fundamentos también entran en esta categoría. Estas técnicas de aprendizaje se remontan a los inicios de los modelos generativos, como las máquinas de Boltzmann restringidas y los autocodificadores. Estos modelos más sencillos constan de dos partes: un codificador y un descodificador. El objetivo de un autocodificador es aprender una representación compacta (conocida como codificación o espacio latente) de los datos de entrada que capte los rasgos o características importantes de los datos, lo que se conoce como "separación lineal progresiva" de los rasgos que definen los datos. Esta codificación puede utilizarse después para reconstruir los datos de entrada originales o generar datos sintéticos completamente nuevos introduciendo variables latentes modificadas de forma inteligente en el descodificador.

Un ejemplo de arquitectura de un modelo autoencodificador convolucional de imágenes se entrena para reconstruir su propia entrada, por ejemplo: imágenes. La modificación inteligente del espacio latente permite generar imágenes completamente nuevas. Esto se puede ampliar añadiendo un modelo adicional que codifique las indicaciones de texto en representaciones latentes que el descodificador entienda para permitir la funcionalidad de texto a imagen.

Muchos modelos modernos de ML utilizan esta arquitectura, y la parte del codificador se denomina a veces columna vertebral, mientras que el decodificador se denomina cabeza. A veces los modelos son simétricos, pero con frecuencia no lo son. Muchas arquitecturas de modelos pueden servir como codificador o columna vertebral, y el resultado del modelo puede adaptarse a un problema específico modificando el decodificador o la cabeza. No hay límite en el número de cabezas que puede tener un modelo, ni en el número de codificadores. Las columnas vertebrales, las cabezas, los codificadores, los decodificadores y otras abstracciones de alto nivel son módulos o bloques construidos a partir de múltiples capas lineales, convolucionales y de otros tipos de redes neuronales básicas. Podemos intercambiarlas y combinarlas para producir diferentes arquitecturas de modelos a medida, del mismo modo que utilizamos diferentes marcos y bibliotecas de terceros en el desarrollo de software tradicional. Esto, por ejemplo, nos permite codificar una frase en un vector latente que luego puede descodificarse en una imagen.

Modelos básicos para el procesamiento del lenguaje natural

Los modelos modernos de Procesamiento del Lenguaje Natural (PLN) como ChatGPT entran en la categoría de Transformadores. El concepto de transformador se introdujo en el artículo de 2017 "Attention Is All You Need" de Vaswani et al. y desde entonces se ha convertido en la base de muchos modelos de vanguardia en PNL. La innovación clave del modelo transformador es el uso de mecanismos de autoatención, que permiten al modelo sopesar la importancia de las diferentes partes de la entrada al hacer predicciones. Estos modelos utilizan lo que se denomina una "incrustación", que es una representación matemática de una entrada discreta, como una palabra, un carácter o un fragmento de imagen, en un espacio continuo de alta dimensión. Las incrustaciones se utilizan como entrada para los mecanismos de autoatención y otras capas del modelo transformador para realizar la tarea específica que se esté llevando a cabo, como la traducción de idiomas o el resumen de textos. ChatGPT no es el primero ni el único modelo de transformador que existe. De hecho, los transformadores se han aplicado con éxito en muchos otros ámbitos, como la visión por computadora y el procesamiento de sonido.

Entonces, si ChatGPT se construye sobre conceptos ya existentes, ¿qué lo hace tan diferente de todas las demás arquitecturas de modelos de última generación que ya se utilizan hoy en día? Una explicación simplificada de lo que distingue a un modelo básico de un modelo de aprendizaje profundo "normal" es la inmensa escala del conjunto de datos de entrenamiento, así como el número de parámetros entrenables que tiene un modelo básico en comparación con un modelo generativo tradicional. Una red neuronal excepcionalmente grande entrenada en un conjunto de datos verdaderamente masivo proporciona al modelo resultante la capacidad de generalizarse a una gama más amplia de casos de uso que tus hermanos más estrechamente enfocados, sirviendo así de base para un número incalculable de nuevas tareas y aplicaciones. Un modelo tan amplio codifica muchos patrones, características y relaciones útiles en tus datos de entrenamiento. Podemos extraer este acervo de conocimientos sin necesidad de volver a entrenar toda la parte codificadora del modelo. Podemos acoplar diferentes cabezas nuevas y utilizar técnicas de aprendizaje por transferencia y de ajuste fino para adaptar el mismo modelo a diferentes tareas. Así es como un solo modelo (como Stable Diffusion) puede realizar a la vez tareas de conversión de texto en imagen, de imagen en imagen, de repintado, de superresolución e incluso de generación de música.

Desafíos en la formación de Modelos Fundacionales

La potencia de cálculo de la GPU y los recursos humanos necesarios para entrenar desde cero un modelo básico como GPT eclipsan los disponibles para desarrolladores individuales y equipos pequeños. Los modelos son sencillamente demasiado grandes y el conjunto de datos demasiado difícil de manejar. Estos modelos no pueden (por ahora) entrenarse de forma rentable de principio a fin y repetirse utilizando hardware básico.

Aunque los conceptos pueden estar bien explicados por la investigación publicada y entendidos por muchos científicos de datos, las habilidades de ingeniería y los costos exorbitantes necesarios para conectar cientos de nodos de GPU durante meses a la vez estirarían los presupuestos de la mayoría de las organizaciones. Y eso sin tener en cuenta los costos de acceso a los conjuntos de datos, almacenamiento y transferencia de datos asociados a la alimentación del modelo con cantidades masivas de muestras de entrenamiento.

Hay varias razones por las que modelos como ChatGPT están actualmente fuera del alcance de los particulares para formarse:

  1. Datos necesarios: El entrenamiento de un gran modelo lingüístico como ChatGPT requiere una cantidad masiva de datos de texto. Estos datos deben ser de alta calidad y diversos, y suelen obtenerse de diversas fuentes, como libros, artículos y sitios web. Estos datos también se preprocesan para obtener el mejor rendimiento, lo que supone una tarea adicional que requiere conocimientos y experiencia. Los costos de almacenamiento, transferencia de datos y carga de datos son tustancialmente más elevados que los que se utilizan para modelos con un enfoque más limitado.
  2. Recursos informáticos: ChatGPT requiere importantes recursos informáticos para entrenarse. Esto incluye clústeres en red de potentes GPU y una gran cantidad de memoria volátil y no volátil. La ejecución de un clúster informático de este tipo puede alcanzar fácilmente los cientos de miles por experimento.
  3. Tiempo de formación: Entrenar un modelo básico puede llevar varias semanas o incluso meses, dependiendo de los recursos informáticos disponibles. Cablear y alquilar tantos recursos requiere mucha habilidad y un generoso compromiso de tiempo, por no hablar de los costos de computación en la nube asociados.
  4. Experiencia: Para llevar a buen término un curso de formación se requieren conocimientos de Machine Learning, procesamiento del lenguaje natural, ingeniería de datos, infraestructura en la nube, redes y mucho más. La mayoría de las personas no pueden adquirir fácilmente este amplio conjunto de competencias interdisciplinares.

Acceso a modelos de IA preentrenados

Dicho esto, hay modelos preentrenados disponibles, y algunos pueden ajustarse con una menor cantidad de datos y recursos para un conjunto de tareas más específico y reducido, lo que constituye una opción más accesible para particulares y organizaciones más pequeñas.

El entrenamiento de Stable Diffusion requirió 600.000 dólares, el equivalente a 150.000 horas de GPU. Es decir, un cluster de 256 GPUs funcionando 24 horas al día, 7 días a la semana durante casi un mes. Stable Diffusion se considera una reducción de costos en comparación con GPT. Por lo tanto, aunque es posible entrenar tu propio modelo de base utilizando proveedores de nube comerciales como AWS, GCP o Azure, el tiempo, el esfuerzo, la experiencia necesaria y el costo total de cada iteración imponen limitaciones a su uso. Existen muchas soluciones y técnicas para reutilizar y volver a entrenar parcialmente estos modelos, pero por ahora, si quieres entrenar tu propio modelo básico desde cero, lo mejor que puedes hacer es solicitarlo a una de las pocas empresas que tienen acceso a los recursos necesarios para llevar a cabo esta tarea.

Comunicate con nosotros

Si está listo para aprovechar la inteligencia artificial y las soluciones de aprendizaje automático, póngase en contacto con nosotros hoy mismo. Kopius es líder en consultoría y servicios de tecnología digital nearshore.


Recursos adicionales:


Tendencias de datos: Seis formas en que los datos cambiarán los negocios a partir de 2023


Por Kristina Scott

La cantidad de datos es enorme y crece cada vez más. Hemos rastreado seis grandes tendencias basadas en datos para el año que viene.

Analítica digital visualización de datos, calendario financiero, monitor de pantalla en perspectiva

Los datos son una de las oportunidades más innovadoras y de mayor crecimiento en la actualidad para dar forma a nuestra forma de trabajar y liderar. IDC predice que, para 2024, la incapacidad de llevar a cabo una estrategia basada en los datos y la IA afectará negativamente al 75 % de las mayores empresas públicas del mundo. Y para 2025, el 50% de esas empresas promoverán la toma de decisiones basada en datos mediante la integración de análisis en su software empresarial (frente al 33% en 2022), lo que impulsará la demanda de más soluciones de datos y empleados expertos en datos.

Aquí mostramos cómo cambiarán las tendencias de datos a partir de 2023:

  1. La democratización de los datos impulsa la cultura de datos

Si cree que los datos sólo son relevantes para los analistas con conocimientos avanzados de ciencia de datos, tenemos noticias para usted. La democratización de los datos es una de las tendencias más importantes en materia de datos. El estudio de Gartner prevé que el 80 % de las iniciativas basadas en datos que se centran en los resultados empresariales se convertirán en funciones empresariales esenciales en 2025.

Las organizaciones están creando una cultura de datos mediante la atracción de talentos expertos en datos y la promoción del uso de datos y la educación de los empleados a todos los niveles. Para apoyar la democratización de los datos, estos deben ser exactos, fáciles de digerir y accesibles.

Según un estudio de McKinsey, las empresas con mejores resultados cuentan con un responsable de datos en la dirección ejecutiva y ponen los datos y las herramientas de autoservicio al alcance de todos los empleados de primera línea.

2. La hiperautomatización y los datos en tiempo real reducen los costos

Los datos en tiempo real y su automatización serán las herramientas de big data más valiosas para las empresas en los próximos años. Gartner prevé que, para 2024, la hiperautomatización rápida permitirá a las organizaciones reducir los costos operativos en un 30 %. Y para 2025, el mercado de software de hiperautomatización alcanzará casi los 860.000 millones de dólares.

3. La inteligencia artificial y el Machine Learning (IA y ML) siguen revolucionando las operaciones

La capacidad de implementar IA y ML en las operaciones será un diferenciador significativo. Verta Insights descubrió que los líderes del sector que superan financieramente a tus homólogos tienen más del doble de probabilidades de lanzar proyectos, productos o funciones de IA y han realizado inversiones en IA/ML a un nivel superior que tus homólogos.

Las tecnologías de IA y ML impulsarán el mercado del procesamiento del lenguaje natural (PLN). El PLN permite a las máquinas comprender el lenguaje humano hablado y escrito y comunicarse con nosotros. Según un estudio de MarketsandMarkets, el tamaño del mercado del PLN pasará de 15.700 millones de dólares en 2022 a 49.400 millones en 2027.

Hemos asistido a la oleada de interés por ChatGPT de OpenAI, un software de generación de lenguaje conversacional. Esta tecnología altamente escalable podría revolucionar toda una serie de casos de uso, desde resumir cambios en documentos legales hasta cambiar por completo nuestra forma de buscar información a través de interacciones similares al diálogo, afirma CNBC.

Esto puede tener implicaciones en muchas industrias. Por ejemplo, el sector sanitario ya emplea la IA para recomendaciones de diagnóstico y tratamiento, participación de los pacientes y tareas administrativas. 

4. La arquitectura de datos conduce a la modernización

La arquitectura de datos acelera la transformación digital porque resuelve problemas de datos complejos mediante la automatización de procesos de datos básicos, aumenta la calidad de los datos y minimiza los silos y los errores manuales. Las empresas se modernizan apoyándose en la arquitectura de datos para conectar datos entre plataformas y usuarios. Las empresas adoptarán nuevo software, agilizarán las operaciones, encontrarán mejores formas de utilizar los datos y descubrirán nuevas necesidades tecnológicas.

Según MuleSoft, las organizaciones están preparadas para automatizar la toma de decisiones, mejorar dinámicamente el uso de los datos y reducir los esfuerzos de gestión de datos hasta en un 70% mediante la incorporación de análisis en tiempo real en su arquitectura de datos.

5. Las soluciones multi-nube optimizan el almacenamiento de datos

El uso de la nube se está acelerando. Las empresas optarán cada vez más por una nube híbrida, que combina los mejores aspectos de las nubes privadas y públicas.

Las empresas pueden acceder a los datos recopilados por servicios en la nube de terceros, lo que reduce la necesidad de crear sistemas personalizados de recopilación y almacenamiento de datos, que suelen ser complejos y caros.

En el Informe sobre el estado de la nube de Flexera, el 89% de los encuestados tiene una estrategia multi-nube, y el 80% está adoptando un enfoque híbrido.

6. Una mejor gobernanza y regulación de los datos protegen a los usuarios

Una gobernanza de datos eficaz se convertirá en la base de unos datos impactantes y valiosos. 

A medida que más países aprueben leyes para regular el uso de diversos tipos de datos, la gobernanza de datos pasa a un primer plano en las prácticas de datos. El GDPR europeo, la PIPEDA canadiense y la PIPL china no serán las últimas leyes que se introduzcan para proteger los datos de los ciudadanos.

Gartner ha pronosticado que en 2023 el 65 % de la población mundial estará sujeta a normativas como el GDPR. A su vez, será más probable que los usuarios confíen tus datos a las empresas si saben que están más reguladas.

Valence trabaja con tus clientes para implementar un marco de gobernanza, encontrar fuentes de datos y riesgos de datos, y activar la organización en torno a este enfoque innovador de la gobernanza de datos y procesos, incluyendo educación, formación y desarrollo de procesos. Más información.

Qué aportan estas tendencias de datos

A medida que transcurre
 2023, las organizaciones que comprenden las tendencias actuales de los datos pueden aprovecharlos para ser más innovadoras, estratégicas y adaptables. Nuestro equipo ayuda a los clientes con evaluaciones de datos, diseñando y estructurando activos de datos y creando soluciones modernas de gestión de datos. Integramos estratégicamente los datos en los negocios de los clientes, utilizamos el Machine Learning y la inteligencia artificial para crear perspectivas proactivas, y creamos visualizaciones de datos y cuadros de mando para que los datos tengan sentido.  

Ayudamos a nuestros clientes a desarrollar una solución y crear una arquitectura de datos moderna que admita una escalabilidad diferenciada habilitada para la nube, capacidad de autoservicio y un plazo de comercialización más rápido para nuevos productos y soluciones de datos. Más información.

Recursos adicionales: