Circos entrópicos

Se lo comentaba el otro día al Señor Pez: menudo circo se ha montado con lo de Rayán.

En un Hospital, bueno, en todos los lugares de trabajo, a diario se cometen errores. La gran mayoría, sin consecuencias para los pacientes; algunos, fatales, como con el caso que comento. Si además le añadimos el «morbo» de que sea el hijo de la primera víctima de la gripe A, pues ya tenemos titulares para toda la semana… como ya se ha comprobado.

Lo «gracioso», porque poca gracia hace, es que cuando llegue la hora del juicio, pocos se acordarán de esto… la enfermera, por desgracia, no. Y es que sentir que eres la responsable de la muerte de un paciente, no es algo para tirar cohetes de alegría. Fijaos que he puesto «sentir» y no «ser»: aunque haya algunos a los que les encantaría coger a esa enfermera y sancionarla de por vida (unos cuantos comentarios en Menéame dieron fe de ello), en la gestión moderna, los errores no son responsabilidad de nadie, sino problemas de gestión. ¿Es acaso el último eslabón en la cadena la responsable de que el error no haya sido detectado por el resto de eslabones en la cadena? Condenar y castigar a las personas sólo sirve para crear miedo en el sistema, haciendo que los futuros errores se escondan, impidiendo que el sistema sea capaz de retroalimentarse y, por tanto, ser capaz de mejorar.

Pero esto no es una reflexión de la gestión de los errores…

¿Alguien se acuerda de la Entropía? Quien más, quien menos, la estudió en química de BUP/ESO. Para refrescar la memoria, la entropía mide el caos, o desorden, del sistema. A mayor entropía, más difícil es predecir el comportamiento del sistema. Este concepto ha sido absorbido por otras ciencias, cambiando de forma, pero no de fondo.

Dentro de la teoría de la comunicación, la entropía nos dice la probabilidad de pronosticar la entrada de caracteres de una señal. Me explicaré un poco más: si yo recibo la siguiente cadena «Á-r-b-o», puedo pronosticar que el siguiente carácter será una «l», porque, en este caso, la entropía es nula; en cambio, recibir la cadena «X-o-y-z-h», hace que la entropía sea muy alta, impidiendo pronosticar el siguiente carácter.

Esto, que parece de poca aplicación, tiene mucha más miga. Si en vez de caracteres, vamos recibiendo palabras, al recibir un determinante y un nombre, podemos pronosticar que lo siguiente será un adjetivo o un adverbio. Si subimos un peldaño más y vamos recibiendo sintagmas… Supongo que ya cogéis la idea.

Y ahora algo todavía más majo: aplicando la entropía al cuidado de los pacientes podríamos decir que ésta nos dice la probabilidad de pronosticar la evolución de un paciente en función de la información que ya hemos recibido. Por ejemplo, si vamos midiendo la tensión del paciente y recibimos valores normales, podemos pronosticar que, si no hay cambios en el estado del paciente, los siguientes valores también lo serán. Y no sólo la entropía es aplicable, sino que otros conceptos como la detección de errores o la redundancia de bits también se pueden aplicar.

Todo esto está muy bien… pero, ¿qué tiene que ver con el error de la enfermera de Rayán? Aparte de lo que ya he comentado, poco más… pero volviendo al principio, lo que me ha motivado para escribir es el circo que se ha montado y cómo la gente (y los medios de comunicación) enseguida ha enarbolado su bandera de la verdad y sacado conclusiones sobre la profesionalidad o competencia de la enfermera… y todo ello sin tener toda la información necesaria (es decir, un sistema con una entropía alta).

Así pues, ¿cómo puede la gente sacar conclusiones de un modo tan fácil sin conocer todo el sistema?¿Cómo podemos hacer una gestión del conocimiento eficiente si no somos capaces de analizar la información?

3 comentarios en “Circos entrópicos

  1. Sin entrar en la cuestión del supuesto error, con este caso, para los que conocemos de qué va todo esto, ha quedado claro lo «informados» que están los medios y opinadores oficiales. La prensa ya no es lo que era (si solo fuera la prensa…).

    Me gusta

¿Tienes algo que decir?¡Anímate!