Por Alex Cabrera Espejo, CEO Prevsis
¿Debemos ser amables o más exigentes con la inteligencia artificial? La pregunta es interesante, pero la discusión está mal enfocada.
Seguimos proyectando comportamiento humano sobre sistemas que no son humanos. Los modelos actuales conversan con una fluidez que hace difícil recordar que son sistemas estadísticos, no interlocutores conscientes. Es una trampa cognitiva.
Los modelos de lenguaje no sienten nada. No se intimidan. No se esfuerzan más porque alguien les escriba con dureza. Son sistemas probabilísticos entrenados sobre enormes volúmenes de texto humano. Si un tono directo obtiene mejores resultados que uno excesivamente educado, la explicación no es psicológica. Es estructural.
Cuando llenamos la indicación, o en inglés el prompt, con cortesías y amabilidades, estamos agregando palabras que no aportan información operativa. El modelo no entiende la intención detrás del “¿podrías, por favor, si no es mucha molestia…?”, simplemente procesa partes del lenguaje que no orientan hacia ningún resultado o instrucción concreta. En cambio, cuando escribimos de forma directa y precisa, concentramos significado. No es la rudeza lo que mejora el resultado, es principalmente ir al grano y ser taxativo.
Y aquí es donde la conversación se vuelve realmente relevante para quienes trabajamos con IA en procesos productivos complejos, en temas de seguridad y salud en el trabajo, donde las respuestas deben ser exactas. Se trata de análisis que afectan decisiones técnicas, regulatorias o estratégicas. En esos contextos, la calidad de la indicación es un factor crítico. Una instrucción bien construida puede ser la diferencia entre un resultado utilizable y uno que requiere reescribirse desde cero. Más aún cuando nos encontramos en entornos donde reportar un accidente implica que el tiempo, la precisión y la trazabilidad importan. Es allí donde estos temas marcan la diferencia y tienen consecuencias reales.
Patrón de formalidad
En el lenguaje humano, la exigencia suele ir de la mano con responsabilidad. Cuando alguien dice que algo debe ser perfecto, el contexto implícito es alta precisión, márgenes de error mínimos o nulos y consecuencias muy desfavorables si algo falla. Los modelos han aprendido esos patrones.
Entonces, cuando escribimos que algo es crítico, que no hay margen de error, que el análisis será revisado por especialistas, no estamos intimidando al modelo. Estamos invocando un patrón de formalidad técnica que activa una distribución de respuesta más cuidadosa. Es ingeniería del lenguaje, no psicología aplicada.
Si un modelo solo mejora cuando lo insultas, el problema no es el modelo. Es la falta de claridad en lo que escribes. La agresividad puede estar funcionando como un indicador accidental de urgencia o especificidad, pero no es el mecanismo activo. No es agresividad lo que necesitamos. Es estructura con propósito técnico y contexto bien definido. Si el resultado es inconsistente, faltó delimitar el alcance. Si divaga, no hubo marco de referencia. Siempre hay una causa estructural en la instrucción antes de culpar al modelo.
Así, la IA se está convirtiendo en un espejo de nuestra capacidad de pensar con claridad y de dedicarle el tiempo que merece a escribir y definir lo que realmente queremos lograr. No nos juzga, no nos presiona, no nos exige nada. Pero amplifica exactamente lo que le entregamos. Si el pensamiento es impreciso, la respuesta lo refleja. Si la pregunta está bien construida, el resultado lo demuestra.
La IA nos obliga a pensar mejor. Nos exige disciplina y especificidad. Esa es una de las competencias estratégicas que necesitamos desarrollar, la capacidad de comunicar con precisión lo que realmente necesitamos.






