Salesforce Reduce su Confianza en la IA Generativa Tras Problemas con Agentforce
En un giro inesperado, Salesforce está replanteando su enfoque hacia la inteligencia artificial generativa (IA), tras experimentar problemas con su solucif3n Agentforce. Esta herramienta, basada en los grandes modelos de lenguaje (LLM) de OpenAI, prometeda revolucionar el servicio de atencif3n al cliente, pero ha demostrado tener limitaciones importantes.
Inicialmente, Salesforce apostf3 fuerte por Agentforce, llegando incluso a reducir significativamente su plantilla de soporte al cliente. Sin embargo, la realidad ha demostrado que la IA generativa, a veces, puede ser impredecible.
Cuando la IA ‘Alucina’: El Problema de los LLM
Segfan informa The Information, varios clientes de Salesforce notaron que los agentes conversacionales perdedan el hilo de la conversacif3n con facilidad, especialmente cuando los usuarios se desviaban del ‘guion’ preestablecido. Phil Mui, directivo de Salesforce, describif3 cf3mo estos agentes ‘derivan’ ante preguntas complejas, ofreciendo respuestas irrelevantes u olvidando tareas cruciales.
Un ejemplo claro es el de Vivint, una empresa de seguridad doméstica. Habedan configurado Agentforce para enviar automáticamente un cuestionario de satisfaccif3n al final de cada interaccif3n. Sin embargo, la IA omiteda este paso sin una razf3n aparente. La solucif3n fue reemplazar la IA generativa por un simple disparador ‘si esto, entonces aquello’ (if this, then that), una regla básica que garantiza el envedo del mensaje en cada interaccif3n.
Reglas Simples: La Vuelta a lo Básico
Este tipo de reglas, utilizadas desde siempre en informática, son deterministas: ejecutan la misma accif3n bajo las mismas condiciones, sin intentar interpretar el contexto ni ‘razonar’. Aunque menos sofisticadas que un agente impulsado por LLM, estas reglas son mucho más fiables para automatizar tareas credticas y, lo más importante, ¡no ‘alucinan’!
‘Confiábamos más en los LLM hace un año’, admite Sanjna Parulekar, vicepresidenta de marketing de producto. Para minimizar errores y ‘alucinaciones’, Salesforce ha reforzado el uso de estas reglas predefinidas.
Muralidhar Krishnaprasad, director tecnolf3gico del grupo, añade: ‘Si le das a un LLM más de, digamos, ocho instrucciones, empieza a olvidar algunas, lo cual no es ideal’. La implementacif3n de comandos básicos no solo reduce el coste de los LLM, sino que también garantiza que los usuarios obtengan las respuestas correctas.
Un Enfoque Más Equilibrado
Salesforce insiste en que no está renunciando a la IA generativa, sino que está aprendiendo a utilizarla donde realmente aporta valor. ‘Ahora utilizamos los LLM de forma más especedfica, donde ofrecen una verdadera ventaja’, explica un portavoz, destacando un mayor control y seguimiento del rendimiento. Esta postura representa un enfoque más prudente, alejándose de la exageracif3n que a menudo rodea a la automatizacif3n con IA en Silicon Valley.




