15 febrero 2011

Cómo mejorar el proceso de estimación

Existen varias formas de realizar una estimación –digamos de la cantidad de trabajo que requiere una tarea, su duración, coste, etc.-, alguna sobre la que ya se ha hablado en este blog. Pero el objetivo de esta entrada no es hablar de los diferentes tipos de estimación, sino de una manera de contrastar dichas estimaciones, sean del tipo que sean, se hayan realizado como se hayan realizado, con el resultado real y palpable una vez la tarea se ha completado. Porque, aunque las formas de augurar un resultado sean diversas e inescrutables, un resultado, resultado es.

Dado que las estimaciones, por su naturaleza intrínseca, llevan asociado cierto nivel de falta de certidumbre –no confundir con la total y absoluta incertidumbre, aunque las estimaciones también están expuestas a ella como todo en esta vida-, siempre estarán sujetas a cierta dosis de error. Pues bien, desde un punto de vista de la aleatoriedad –que no, repito, incertidumbre-, estos errores, según Deming, se podrían clasificar dentro de dos tipos.

Pero, antes que nada, vamos a considerar la siguiente asunción: que estos errores no son el resultado de una deshonestidad deliberada. Así pues, las fuentes de error honesto serían bien la aleatoriedad intrínseca del proceso –las variaciones de causa común, en la nomenclatura de Deming-, o bien sistemática debida a alguna influencia externa al proceso –las variaciones de causa especial, según la nomenclatura e Deming-.

Antes de abordar cualquier proceso de mejora, es muy importante no confundir una causa común con una causa especial. Las variaciones de causa común tienen su origen en la naturaleza estocástica de muchos procesos –en el caso de la estimación, la naturaleza aleatoria del verdadero resultado de esa estimación-, mientras que las variaciones de causa especial tienen su origen es aspectos externos al propio objeto de la estimación, como por ejemplo sesgos en la persona que efectúa dicha estimación. Pues bien, la herramienta que proponemos a continuación sirve precisamente para detectar sesgos en nuestro proceso de estimación. Es decir, identificar variaciones de causa especial en nuestras estimaciones. Es importante notar que la herramienta sólo muestra que uno tiene sesgos a la hora de estimar; determinar el verdadero origen de esos sesgos depende de cada uno –en realidad puede hasta servir hasta para detectar los sesgos provenientes de una deshonestidad deliberada: generar sucesos aleatorios no entra dentro de las habilidades humanas, ver esta entrada relacionada con el tema-.

La herramienta la dejo en este Libro Excel. Y ahora paso a contar su funcionamiento.

El único requerimiento para poder utilizar la herramienta es llevar un registro histórico de las propias estimaciones y sus resultados reales –la parte que no requiere de ningún esfuerzo mental para comprender pero que, en realidad, es la más difícil como lo son todos los hábitos que requieren disciplina y constancia-. Teniendo este registro histórico, la parte de análisis de esos datos se puede automatizar, a pesar de que el comprender su funcionamiento pueda requerir un pequeño esfuerzo mental –esta es la parte que, a pesar de que pueda tener cierta complejidad o abstracción, no presenta dificultad para ser utilizada, precisamente porque no requiere de hábitos de disciplina y constancia, funciona sola. El verdadero meollo de todo es siempre la naturaleza humana, pero eso es otra historia ajena a esta entrada-.

Pero sigamos. ¿Qué podemos hacer con un registro histórico de pares (estimación, valor real)? En primer lugar restarle el valor estimado al valor real –número positivo si el valor real ha excedido al estimado y negativo si ha sido al revés-, lo que nos da la desviación del valor manifestado en la realidad respecto del valor estimado. Con esto, podemos calcular el promedio de los valores absolutos –tomarlos siempre positivos, aunque sean negativos-, magnitud que vamos a denominar Desviación Absoluta Media (DAM). Finalmente, podemos definir el parámetro de interés que mida el sesgo de nuestras desviaciones. A priori, uno puede pensar que siempre que hay una desviación hay un sesgo –bien sea por exceso o por defecto-. Aunque, si la causa de esos “sesgos” individuales fuera aleatoria, lo que obtendríamos al ir sumando los valores de las desviaciones es que unas se irían cancelando con otras de manera que la suma tendría un valor muy próximo –por encima o por debajo- a cero. Por lo tanto lo que va a determinar la existencia de un verdadero sesgo es la suma de las desviaciones teniendo en cuenta sus respectivos signos. Esta suma, para evitar que no dependa del tamaño de los números puestos en juego –es de esperar que estimaciones mayores presenten desviaciones mayores, sin tener ello que decir que dicha desviación es más descabellada que otra presente en estimaciones más pequeñas-, se puede normalizar dividiéndola por la DAM, obteniendo así un indicador independiente del tamaño de las desviaciones. Así pues, definimos el sesgo del estimador como el cociente entre la suma de desviaciones y la DAM.

Si la DAM = 0 ó muy próxima, será un indicador de que no existe un sesgo significativo en el estimador, mientras que para valores mayores (o menores si son negativos) indicará la presencia de un sesgo. En la tabla siguiente se muestra un ejemplo de lo que hemos comentado:

Periodo
Estimación (E)
Real (R)
R-E
|R-E|
DAM
Sesgo
1
155
163
8
8
2
242
240
-2
2
5,00
1,20
3
46
67
21
21
10,33
2,61
4
69
78
9
9
10,00
3,60
5
75
71
-4
4
8,80
3,64
6
344
423
79
79
20,50
5,41
7
56
49
-7
7
18,57
5,60
8
128
157
29
29
19,88
6,69


Por ejemplo, el sesgo de la fila 6 se obtiene de la siguiente manera:

5,41=(8-2+21+9-4+79)/DAM

donde

DAM=(8+2+21+9+4+79)/6 = 20,5

En el Libro Excel hay dos hojas. Una llamada “Desviaciones absolutas” donde están los cálculos de este ejemplo, y otra llamada “Desviaciones relativas” donde hay un cálculo similar per con desviaciones relativas en vez de absolutas. Una desviación relativa es una desviación dividida por el valor estimado.

7 comentarios:

Alberto Sáenz Heras dijo...

Buenos días, un sistema ágil y simple. Me gusta. Pero no entiendo porque indicas que "la herramienta que proponemos a continuación sirve precisamente para detectar sesgos en nuestro proceso de estimación", ya que no hay manera de saber si la desviación proviene de nuestro sesgo o de la aleatoriedad del proceso.

Diego Navarro dijo...

Hola Alberto, gracias por el comentario porque creo que la explicación necesita aclaraciones.
La variable sesgo debe permitir detectar si las desviaciones provienen de nuestro sesgo o no porque, cuando nuestro registro ya tiene varias de ellas, éstas, si tuvieran un origen aleatorio, se compensarían de manera que el sesgo sería cero o muy próximo.
Si el registro tuviera sólo un valor, no podrías decir si la desviación se debe a un sesgo o la aleatoriedad, pero cuando el número de valores va creciendo, si el origen de las desviaciones fuera aleatoria, éstas deberían distribuirse tanto positivamente como negativamente de manera que el promedio fuera cero.

aitor dijo...

Estimado Diego
creo necesario indicar que, si no estoy muy confundido, es una aplicación del TEOREMA CENTRAL DEL LIMITE. http://es.wikipedia.org/wiki/Teorema_del_l%C3%ADmite_central


Con esto quiero decir que para que los sesgos aleatorios se anulen entre sí, existe la condición de que la muestra sea suficientemente elevada para conseguir un grado de confianza adecuado.

Muy interesante entrada
Felicidades por el blog y sigo atento
Un saludo

Diego Navarro dijo...

Gracias Aitor.
Aunque matizaría algo, eso es lo que ocurre.

Carlos Alberto Vigil Taquechel dijo...

Muchas felicidades, hay entradas verdaderamente interesantes en este blog relacionadas con la gestión de proyectos.

Diego Navarro dijo...

Gracias a ti, Carlos. Me alegra saber que los contenidos son interesantes o de utilidad.

RU dijo...

Verdaderamente bueno tu blog.
Mi enhorabuena, me suscribo :)

Intentaré aplicar este post, espero poder contarte pronto.
Saludos!

www.projectary.wordpress.com