IA y humanos: ¿cómo lograr una convivencia productiva en las organizaciones?
La llegada de los agentes de IA está iniciando una etapa donde los sistemas dejan de ser simples soportes para convertirse en entidades que actúan, toman decisiones y colaboran con personas dentro de organizaciones y entornos digitales. Empresas y usuarios ya están experimentando este cambio: algunos descubren nuevas eficiencias, otros se enfrentan a dificultades técnicas, culturales o de seguridad.
Cuando IA y humanos intentan trabajar juntos
Los investigadores y especialistas en seguridad, Bruce Schneier y Nathan Sanders, han publicado un ensayo donde analizan esta relación entre la IA y los humanos en el contexto productivo.
Han identificado que muchas organizaciones están presionando a sus equipos para adoptar nuevas herramientas de IA “agente”, es decir, modelos que no solo generan contenido, sino que actúan para lograr objetivos como automatizar procesos, tomar decisiones o gestionar tareas complejas. Sin embargo, la adopción no está resultando tan sencilla. Muchos líderes se encuentran con que estos sistemas no siguen instrucciones, ofrecen resultados triviales o consumen tiempo y recursos en tareas que herramientas más simples podrían resolver igual de bien.
Quienes están logrando mejores resultados con la IA han descubierto algo interesante: los sistemas actuales pueden comportarse de forma “humana”. Cuanto más se les asignan tareas que requieren colaboración y cooperación entre varios modelos, más emergen dinámicas que antes asociábamos solo a equipos de personas. Esto abre una nueva dimensión para los procesos de adopción, donde la tecnología no solo se integra: también interactúa.
La evidencia recogida por investigadores y líderes del sector indican que los principios clásicos del management humano siguen siendo cruciales en este nuevo contexto. De hecho, los autores llevan años analizando los riesgos y oportunidades de la IA en gobiernos e instituciones civiles. Su investigación más reciente muestra que muchas organizaciones están haciendo un segundo intento de implementación, ahora con herramientas “agénticas” enfocadas en automatizar cadenas de suministro, tomar decisiones basadas en datos o manejar flujos de trabajo complejos.
El resultado es que estamos entrando en una fase donde entender qué funciona y qué no será clave. Consultoras como Gartner estiman que el 40% de los proyectos de IA de agente se cancelarán en dos años, principalmente porque fueron implementados en procesos donde no pueden generar impacto real. En otras palabras, la tecnología está lista para actuar, pero las organizaciones todavía están aprendiendo cómo aprovecharla y dónde ubicarla dentro de equipos humanos para que genere valor.
En este escenario emergen varias lecciones clave: no basta con sumar agentes de IA a equipos humanos, se necesita delegar correctamente, permitir iteración constante, fomentar buena comunicación entre sistemas y personas, y medir los resultados para ajustar la colaboración en tiempo real. En pocas palabras, los principios que hicieron funcionar a los equipos humanos durante décadas podrían ser también los que permitan que humanos y máquinas trabajen juntos de manera efectiva.
Ejemplo básico: la seguridad de los navegadores con agentes de IA
La integración de herramientas no solo está ocurriendo dentro de equipos y flujos de trabajo, sino también en la navegación web. Los navegadores basados en IA de agente (como Atlas, Comet, Dia, Fellou o Neon) están transformando la forma en que los usuarios completan tareas en línea, y es hasta el momento, la forma más fácil y rápida de acceder a un agente de IA.
En lugar de limitarse a “mostrar páginas”, estos navegadores interpretan intenciones, planifican acciones y las ejecutan de forma autónoma. Desde recopilar información hasta completar formularios o agendar reuniones.
Sin embargo, esta capacidad de “tomar iniciativa” trae consigo un nuevo conjunto de riesgos de seguridad y gobernanza que las empresas no pueden ignorar. CyberScoop ha compratido recientemente una serie de recomendaciones, advirtiendo que estos navegadores pueden ampliar la superficie de ataque si no se configuran y utilizan correctamente, sobre todo en entornos empresariales.
Para gestionar este nuevo escenario, se recomiendan prácticas como limitar el alcance de las acciones, exigir permisos detallados y específicos, mantener logs transparentes, capacitar usuarios y empezar con casos de uso acotados. Es decir, la misma lógica que vimos anteriormente aplica aquí: el potencial es enorme, pero requiere controles, monitoreo y prudencia para coexistir de forma segura y productiva.


