La IA solo es tan potente como la arquitectura de datos que hay detrás.
En el episodio 52 de The AI Forecast, Por qué los LLM no son suficientes y cómo las estructuras de IA lo cambiarán todo, el presentador Paul Muller se sienta con el Dr. Jake Trippel, decano de la Facultad de Negocios y Tecnología de la Univ. Concordia, St. Paul, y cofundador y CTO de Codename 37, para analizar qué está frenando a las empresas para escalar la IA:
Arquitectura de datos en silos
Malentendido sobre el poder del aprendizaje automático, el aprendizaje profundo y las redes neuronales
Acumulación de deuda técnica
Su conversación abarca desde la economía de la nube frente a los entornos locales hasta el próximo cambio de las aplicaciones SaaS a las experiencias basadas en bots. A continuación, se presentan momentos clave de su conversación.
Paul: Háblanos sobre lo que hemos visto en el pasado con la IA y las arquitecturas de datos, y por qué necesitamos replantearlas ahora.
Jake: Pasamos por la era de la transformación digital, ese fue el reto con los datos. Nos quedamos en silos de datos porque así estaban diseñadas nuestras plataformas, y así se organizaban los datos. Luego intentamos hacer un montón de integraciones. Intentamos crear todos estos motores de integración de aplicaciones. Intentamos encontrar formas ingeniosas de hacerlo, pero lo que pasó fue que acabamos creando un lío de cables al pasar de ELT a ETL, de un sistema a otro.
Ahora, avancemos rápidamente hasta el día de hoy. El reto ahora es que estas organizaciones están incentivadas a mantenernos en compartimentos aislados porque ahora llegan los silos de datos de IA, los datos siguen en silos, y ahí es donde entra el poder de la nube. Es por eso que nos enorgullece ser socios de Cloudera.
Imagina el mismo problema, pero amplificado. Tengo un montón de agentes de IA (¡genial!), pero solo funcionan dentro de su propio silo de datos.
La gente va a querer más. Van a querer agentes que puedan trabajar juntos, hablar juntos y razonar juntos. Pero, ¿cómo lo haces si tus datos siguen atrapados en silos? Para alcanzar este estado de data mesh será necesario un cambio transformador, y por eso Cloudera es una solución interesante que puede ayudar a la gente a lograrlo.
Paul: ¿Cuáles son algunos de los trucos, buenas prácticas, consejos o sugerencias que utilizas para sacar el máximo partido a tu trabajo con datos?
Jake: Lo más importante es comprender que los LLM no son la respuesta para todo. La IA es un mundo enorme.
Los LLM son geniales para algunas cosas, pero son realmente malos para otras. La gente tiene que entender el poder del aprendizaje automático, el aprendizaje profundo y las redes neuronales, que en realidad son las entrañas de las otras dos.
La habilidad de nuestro tiempo ahora es ser capaz de desarrollar o usar los modelos adecuados para los casos de uso adecuados y avanzar rápidamente por los datos. Ahí es donde la gente debe centrarse.
Paul: En tu opinión y según tu experiencia, ¿cómo pueden las organizaciones empezar a avanzar de forma pragmática desde donde se encuentran hasta donde quieren llegar? ¿Cómo limpian sus datos? ¿Existe algún mecanismo por el que puedan hacerlo sin romperse?
Jake: Es una pregunta muy amplia, así que voy a intentar desglosarla un poco. Llevas aquí tres décadas por una razón. Todavía vemos AS/400 por ahí, y funcionan. Hay que reconocer el mérito de IBM.
Sin embargo, el reto que tienen estas organizaciones es cuánto capital están gastando. Debido al efecto acumulativo de esta deuda técnica, se puede ir posponiendo el problema año tras año, década tras década. El coste solo va a crecer.
Pero ahora al menos tienes opciones. Podemos sacar los datos y hacer con ellos mucho más de lo que habíamos hecho antes. En lugar de aplicar el método de quitar la tirita de un tirón, siempre que tengamos acceso a los datos y sigamos teniéndolo, ahora podemos crear cualquier tipo de experiencia que queramos de forma paralela.
Paul: ¿Qué observas hoy en día en tus clientes actuales a la hora de implementar nuevas cargas de trabajo?
Jake: Estamos viendo una migración masiva de vuelta a las instalaciones locales. No podía creerlo. Nunca habría previsto eso.
A medida que estas organizaciones desarrollan más modelos, entrenamiento, etc., el modelo de costes en la nube resulta demasiado caro. No he conocido a ningún director financiero que esté entusiasmado con la idea de gastar tanto al mes en el entrenamiento de estos modelos.
Están invirtiendo en eso. Están volviendo a los centros de datos. Lo están amortizando durante los próximos cinco años. Lo estamos viendo en dispositivos médicos, servicios financieros, aviación; generalmente es híbrido, pero para cargas de trabajo específicas, especialmente entrenamiento y desarrollo, es mucho más rentable.
Paul: ¿Qué opinas sobre el mundo académico y cómo preparamos a la fuerza laboral del futuro?
Jake: La IA es un amplificador. Va a amplificar lo bueno y lo malo.
Por el lado positivo, la gente aprenderá 10, 20 veces más rápido que nunca. He construido modelos que pueden leer libros en tres segundos. Ahora puedo sumergirme en los datos y crear cualquier tipo de experiencia de aprendizaje que desee adaptada a mi estilo de aprendizaje.
La parte mala es que los estudiantes eligen, yo no tengo que hacer nada. Puedo dejar que la IA haga todo mi trabajo y no voy a aprender nada. Esa es la parte que me asusta.
La cualidad más importante de nuestra época es, espero, que te guste aprender. Vas a tener que hacerlo todos los días durante el resto de tu carrera.
Escucha la conversación completa con el Dr. Jake Trippel en The AI Forecast en Spotify, Apple Podcasts y YouTube.
This may have been caused by one of the following: