Los datos de una encuesta de Use.AI sugieren que la adopción de IA en el entorno laboral se está alejando del conocimiento de los modelos y acercando a una dependencia de los resultados, a medida que los profesionales confían cada vez más en sistemas que no comprenden del todo.
Un número creciente de profesionales depende de resultados generados por inteligencia artificial en su trabajo diario sin poder explicar claramente cómo se producen esos resultados. Según una nueva encuesta de Use.AI realizada a 10.018 profesionales en Estados Unidos, América Latina, Reino Unido y Europa, el 63% afirma utilizar regularmente resultados generados por IA que no puede explicar completamente a nivel de modelo o sistema, reflejando lo que investigadores describen cada vez más como la normalización del uso de IA de “caja negra” en entornos profesionales.
Los hallazgos sugieren que, a medida que las herramientas de IA se integran en los flujos de trabajo cotidianos, la transparencia sobre cómo se generan los resultados está perdiendo importancia frente a factores como la velocidad, la utilidad y la fiabilidad. En lugar de interactuar directamente con modelos claramente identificables, los profesionales operan cada vez más a través de sistemas por capas que abstraen la infraestructura subyacente detrás de una interfaz simplificada.
Entre los encuestados, el 59% afirmó que no realiza un seguimiento activo de qué modelo de IA produce los resultados específicos que utiliza en su trabajo, mientras que el 54% reconoció que no podría explicar las diferencias prácticas entre modelos como GPT, Claude o Gemini. Otro 48% señaló que la identidad del modelo es en gran medida irrelevante para su flujo de trabajo siempre que el resultado cumpla con las expectativas.
El patrón parece más pronunciado en entornos laborales de alta frecuencia, donde la velocidad y la consistencia operativa tienen prioridad sobre la visibilidad técnica. En estos contextos, la IA se percibe cada vez menos como un sistema independiente que requiere supervisión activa y más como una capa integrada de productividad incorporada en la toma de decisiones rutinaria.
El cambio marca una transformación significativa respecto a las primeras etapas de adopción de la IA, cuando los usuarios experimentaban directamente con distintos modelos, interfaces y estilos de prompting. A medida que los sistemas de IA se integran más profundamente en plataformas de software y herramientas de trabajo, la propia interacción se vuelve más abstracta. Los usuarios se relacionan cada vez más con los resultados y no con los sistemas que los generan.
La encuesta de Use.AI reveló que el 57% de los encuestados ha utilizado contenido generado por IA en entornos profesionales sin revisar en detalle cómo fue producido el resultado, mientras que el 52% afirmó que tendría dificultades para reconstruir la secuencia de pasos que siguió un sistema de IA para generar un resultado final en el que confiaron en el trabajo.
Los resultados apuntan a un cambio de comportamiento más amplio en la manera en que los profesionales evalúan los sistemas de IA. En lugar de priorizar la explicabilidad o la comprensión a nivel de modelo, los usuarios parecen valorar principalmente la consistencia, la velocidad y la utilidad funcional.
Según la encuesta, el 61% de los profesionales considera más importante la consistencia de los resultados que la transparencia del modelo. Al mismo tiempo, solo el 29% afirmó comparar activamente cómo distintos modelos de IA generan respuestas antes de utilizarlas en contextos laborales, lo que sugiere que la evaluación detallada de modelos sigue concentrada entre usuarios técnicos y primeros adoptantes.
La tendencia también refleja la creciente complejidad de la infraestructura moderna de IA. Muchos sistemas de IA utilizados en el trabajo operan actualmente mediante capas de enrutamiento, APIs integradas o entornos multimodelo, donde los usuarios finales ya no saben con claridad qué sistemas subyacentes son responsables de generar los resultados en cada momento.
A medida que la adopción de IA se acelera en los entornos profesionales, la brecha entre la capacidad de los sistemas y la comprensión de los usuarios parece ampliarse. La encuesta sugiere que el cambio definitorio ya no es simplemente que los profesionales utilicen IA en el trabajo diario, sino que cada vez se sienten más cómodos confiando en sistemas cuya lógica interna, proceso de generación y estructura de modelos permanecen en gran medida invisibles para ellos.
Sobre Use.AI:
Use.AI es un asistente universal de inteligencia artificial diseñado para ofrecer acceso instantáneo a los modelos de lenguaje más avanzados del mundo, incluidos ChatGPT, Claude, Gemini, DeepSeek y otros, todo dentro de una única interfaz. La plataforma facilita la resolución de tareas personales, profesionales y creativas mediante un diseño minimalista compatible con voz, imágenes y archivos, permitiendo a los usuarios delegar tareas cognitivas, planificar, aprender y comunicarse de manera más eficiente. Fundada en 2025, Use.AI busca hacer que la asistencia impulsada por IA sea accesible y práctica para la vida cotidiana.
Use.AI es un asistente universal de inteligencia artificial diseñado para ofrecer acceso instantáneo a los modelos de lenguaje más avanzados del mundo, incluidos ChatGPT, Claude, Gemini, DeepSeek y otros, todo dentro de una única interfaz. La plataforma facilita la resolución de tareas personales, profesionales y creativas mediante un diseño minimalista compatible con voz, imágenes y archivos, permitiendo a los usuarios delegar tareas cognitivas, planificar, aprender y comunicarse de manera más eficiente. Fundada en 2025, Use.AI busca hacer que la asistencia impulsada por IA sea accesible y práctica para la vida cotidiana.