Breve reseña histórica
Aunque el control estadístico de la calidad nace en la primera mitad del siglo XX a lo largo de la Historia hubo siempre un interés por controlar y mejorar la calidad, como ejemplo de esta buena calidad son sin duda la mayoría de los monumentos y piezas artísticas o de uso cotidiano que han resistido el paso del tiempo. En esta introducción se hará un recorrido histórico mencionando algunos de los pasos que se han dado hasta llegar a lo que hoy entendemos por Control de la Calidad.
La mayoría de las civilizaciones antiguas daban gran importancia a la calidad de sus construcciones, aún cuando esto implicara condenar al responsable de la falta de calidad a la muerte, la tortura o la mutilación. Así el Código de Hammurabi (2150 a. C.), declaraba: “Si un constructor construye una casa para un hombre, y su trabajo no es fuerte y la casa se derrumba matando a su dueño, el constructor será condenado a muerte”. Los inspectores fenicios, cortaban la mano a quien hacía un producto defectuoso, aceptaban o rechazaban los productos y ponían en vigor las especificaciones gubernamentales. Alrededor del año 1450 a.C., los inspectores egipcios comprobaban las medidas de los bloques de piedra con un pedazo de cordel. Los mayas también usaron este método. En la biblia se dice que Dios dio a Noé las especificaciones necesarias para construir el arca.
En la Edad Media empezaron a existir los aprendices y los gremios, por lo que los artesanos se convirtieron tanto en instructores como en inspectores, ya que conocían a fondo su trabajo, sus productos y sus clientes, y se empeñaban en que hubiera calidad en lo que hacían, a este proceso se le denomino control de calidad del operario. El gobierno fijaba y proporcionaba normas y, en la mayor parte de los casos, un individuo podía examinar todos los productos y establecer un patrón de calidad único. Este estado de los parámetros de aplicación de la calidad podía florecer en un mundo pequeño y local, pero el crecimiento de la población mundial exigió más productos y, por consecuencia, una mayor distribución a gran escala, en la primera guerra mundial también se dio al control de la calidad del capataz. Ejemplos de estos controles eran llevados a cabo tanto por los fabricantes de tejidos como por los constructores de catedrales.
Uno de los procedimientos más curiosos del que se tiene constancia en la antigüedad es el del control de la calidad mediante un esquema de muestreo desarrollado por la Casa de la Moneda inglesa, que recibe el nombre de trial of the pyx. Procede del reinado de Enrique II, 1154-1189, y su propósito era establecer si las monedas acuñadas respetaban las especificaciones establecidas por la Corona. Debido a la independencia de la Casa de la Moneda con la monarquía, era preciso verificar que los lingotes de oro que se le suministraban iban efectivamente destinados a la acuñación. Se guardaba en la Abadía de Westminster un lingote convenientemente pesado, que se consideraba como patrón para la comparación de las monedas, y una muestra de las monedas acuñadas, guardadas en una caja denominada “pyx”. En períodos de tiempo aleatorios se realiza inspecciones llamadas trial of the pyx por un jurado independiente. El pyx era abierto y los contenidos del mismo eran pesados y comparados con el estándar guardado; si el resultado era satisfactorio, se anunciaba públicamente y se celebraba un banquete, mientras que en caso contrario, el jefe de la Casa de la Moneda era obligado a solventar la situación.
El trial of the pyx sería un primer ejemplo de muestreo de aceptación. Conscientes de los problemas técnicos de acuñar monedas exactamente iguales, y la variación inevitable en los pesos, las partes interesadas acordaron también agrupar las monedas fabricadas en cortos períodos de tiempo, con lo que pesaban el conjunto y era esta medida “agregada” la que comparaban con el estándar. Además se establecía una tolerancia por encima y por debajo del valor estándar, que se denominaba remedy.
Con la Revolución Industrial, la producción en masa de productos manufacturados se hizo posible mediante la división del trabajo y la creación de partes intercambiables; sin embargo, esto creó problemas para los que estaban acostumbrados a que sus productos fueran hechos a la medida.
En el siglo XX se desarrolló una era tecnológica que permitió que las masas obtuvieran productos hasta entonces reservados sólo para las clases privilegiadas. Fue en este siglo cuando Henry Ford introdujo en la producción de la Ford Motor Company la línea de ensamblaje en movimiento. La producción de la línea de ensamblaje dividió operaciones complejas en procedimientos sencillos, capaces de ser ejecutados por obreros no especializados, dando como resultado productos de gran tecnología a bajo costo. Parte de este proceso fue una inspección para separar los productos aceptables de los no aceptables. Fue entonces cuando la calidad era sólo la responsabilidad del departamento de fabricación.
Entre 1920 y 1940 la tecnología industrial cambió rápidamente. La Bell System y su subsidiaria manufacturera, la Western Electric, estuvieron a la cabeza en el control de la calidad instituyendo un departamento de ingeniería de inspección que se ocupara de los problemas creados por los defectos en sus productos y la falta de coordinación entre su departamentos. George Edwars y Walter Shewhart, como miembros de dicho departamento, fueron sus líderes. Edwards declaró: “Existe el control de la calidad cuando artículos comerciales sucesivos tienen sus características más cercanas al resto de sus compañeros y más aproximadamente a la intención del diseñador de lo que sería el caso si no se hiciera la aplicación. Para mi, cualquier procedimiento, estadístico u otro que obtenga los resultados que acabo de mencionar es control de calidad, cualquier otro que no obtenga estos resultados no los es“. Edwards acuñó la frase «seguridad en la calidad» y la defendía como parte de la responsabilidad de la administración.
En 1924 el matemático Walter Shewhart introdujo el Control De La Calidad Estadístico, lo cual proporcionó un método para controlar económicamente la calidad en medios de producción en masa. Shewhart se interesó en muchos aspectos del control de la calidad. Aunque su interés primordial eran los métodos estadísticos, también estaba muy consciente los principios de la ciencia de la administración y del comportamiento, siendo él la primera persona en hablar de los aspectos filosóficos de la calidad. El punto de vista de que la calidad tiene múltiples dimensiones es atribuible únicamente a Shewhart.
En 1935, E. S. Pearson desarrolló el British Standard 600 para la aceptación de muestras del material de entrada, el cual fue sucedido por el British Standard 1008, adaptación del 4l U.S. Z –1 Standard desarrollado durante la Segunda Guerra Mundial. La Segunda Guerra Mundial apresuró el paso de la tecnología de la calidad. La necesidad de mejorar la calidad del producto dio por resultado un aumento en el estudio de la tecnología del control de la calidad. Fue en este medio ambiente donde se expandieron rápidamente los conceptos básicos del control de la calidad. Muchas compañías pusieron en vigor programas de certificación del vendedor. Los profesionistas de la seguridad en la calidad desarrollaron técnicas de análisis de fracasos para solucionar problemas; los técnicos de la calidad comenzaron a involucrarse en las primeras fases del diseño del producto y se iniciaron las pruebas del comportamiento ambiental de los productos.
En 1946 se instituyó la ASQC (American Society for Quality Control) y su presidente electo, George Edwars, declaró en aquella oportunidad: “La calidad va a desempeñar un papel cada vez más importante junto a la competencia en el costo y precio de venta, y toda compañía que falle en obtener algún tipo de arreglo para asegurar el control efectivo de la calidad se verá forzada, a fin de cuentas, a verse frente a frente a una clase de competencia de la que no podrá salir triunfante”. En se mismo año, Kenichi Koyanagi fundó la JUSE (Union of Japanese Scientists and Engineers) con Ichiro Ishikawa como su primer presiente. Una de las primeras actividades de la JUSE fue formar el Grupo de Investigación del Control de la Calidad (Quality Control Research Group: QCRG) cuyos miembros principales fueron Shigeru Mizuno, Kaoru Ishikawa y Tetsuichi Asaka, quienes desarrollaron y dirigieron el control de la calidad japonés, incluyendo el nacimiento de los círculos de la calidad.
En 1954, E.S Page desarrolla el gráfico de control de sumas acumuladas (CUSUM) que intenta solucionar el problema que presentaba el gráfico de control Shewhart cuando los cambios en el proceso eran de pequeña magnitud. Este gráfico de control va a considerar la información pasada del proceso en su desarrollo, lo que va a suponer que su comportamiento ante cambios de pequeña magnitud va a ser mejor que el del gráfico Shewhart. También en esa fecha Juran empieza a difundir los métodos estadísticos y los sistemas de control de calidad entre todos los dirigentes y mandos intermedios de las empresas japonesas.
En 1959, S. Roberts introduce el gráfico de control de medias móviles exponencialmente ponderadas, conocido como gráfico EWMA (Exponentially Weighted Moving Average). Este gráfico de control igual que el gráfico CUSUM va a comportase mejor que el tradicional gráfico Shewhart ante la presencia de cambios de pequeña magnitud en el proceso, si bien, en este caso la inclusión de la información pasada del proceso se realiza considerandolo como un proceso estocástico.
Sin embargo en los procesos de producción actuales, existe más de una característica que influye en la calidad final de los productos. Para solventar este problema y poder controlar varias características al mismo tiempo surgen las técnicas multivariantes. Dentro de éstas caben destacar por su mayor desarrollo y aplicación el gráfico de control T2 de Hotelling y los gráficos MCUSUM y MEWMA.
El papel que juega la estadística en todo el proceso de control de calidad es crucial. Una forma de expresarlo es la cita de W.G. Hunter, Profesor de la Universidad de Wisconsin, quien afirmó: “Si se deben mejorar los niveles actuales de calidad y productividad deben hacerse cambios en el modo en que se hacen las cosas en la actualidad, debería disponerse de buenos datos que sirvan como base racional sobre la cual hacer esos cambios. Una pregunta doble aparece: ¿qué datos tomar? y, una vez recogidos, ¿cómo deben analizarse? La Estadística es la ciencia que responde a esta doble pregunta”.
La calidad en Japón
Después de acabar la Segunda Guerra Mundial Japón estaba frente a la reconstrucción del país, y las fuerzas de ocupación estadounidenses decidieron apoyarlo en la reconstrucción de su economía con el fin de evitar que recuperara su capacidad bélica. Para eso Estados Unidos envió a un grupo de expertos para ayudar en su labor. Sin embargo, antes debían ganarse la confianza de los japoneses, que los veían como meros enemigos, por lo que se lanzaban a través de la radio mensajes pro-EE.UU. Lamentablemente Japón no contaba con radios, y se propuso montar unas fábricas orientadas a su fabricación. Pero, como se contaba con mano de obra inexperta, el resultado fue la mala calidad de las radios creadas. Para sanar este problema se creó el NETL (National Electric Testing Laboratory), sin embargo poco tiempo después se reconoció que esa estrategia no era buena, y se decidió reorientar los esfuerzos a la capacitación de esta nueva generación de administradores japoneses. La industria japonesa tenía una imagen de fabricantes de productos baratos, de baja calidad.
Entre los temas de capacitación se incluyó el control estadístico de la calidad, aplicado gracias a los aportes de Walter Shewhart. La JUSE vio en esta temática una razón de la victoria de los EE.UU en la guerra, por lo que solicitaron que les recomendaran expertos en este tema para poder profundizar y reforzar el tema. Debido a que Shewhart no estaba disponible, se envió a un profesor de la Universidad de Columbia, discípulo del propio Shewhart; este profesor era W. Edwards Deming. Ya en 1947 Deming había estado en Japón como parte de una misión de observación económica, por lo que ya lo conocían los japoneses, lo que facilitó su incorporación como instructor. Así en 1950 W. Edwards Deming, un hombre dedicado a la estadística que había trabajado en la Bell System con George Edwards y Walter Shewhart, fue invitado a hablar ante los principales hombres de negocios del Japón, quienes estaban interesados en la reconstrucción de su país al término de la Segunda Guerra Mundial, e intentando entrar en los mercado extranjeros y cambiando la reputación del Japón de producir artículos de calidad inferior. Deming los convenció de que la calidad japonesa podría convertirse en la mejor del mundo al instituirse los métodos que él proponía.
El programa de aplicaciones del control a la industria japonesa comenzó en 1949 con la mejora del sistema de telecomunicaciones de Japón, realizado por los ECL (Electrical Communication Laboratories), de la compañía NTT (Nippon Telephone and Telegraph). El Dr. Genichi Taguchi participó en este proyecto con la responsabilidad de promover la productividad en investigación y desarrollo para ECL. Para optimizar los costes de la experimentación, Taguchi desarrolló un enfoque del Diseño de Experimentos en términos de costes: la variación reducida se traduce en una mayor reproducibilidad, viabilidad y, finalmente, en grandes ahorros en costes tanto para el fabricante como para el cliente. Cualquier enfoque efectivo de la calidad debe dirigirse a la relación entre calidad y coste.
Taguchi viajó a los Estados Unidos en 1962 y visitó la Universidad de Princetown como Investigador Asociado. Volvió a Japón y fue profesor en la Universidad Aoyama Gakuin, en Tokio, hasta 1982. Durante este tiempo, formó a miles de ingenieros en la industria, mientras colaboraba como consultor con las más importantes empresas japonesas, tales como Toyota Motors, Fuji Films y Nippondenso. Hoy en día es el Director Ejecutivo del American Supplier Institute, Inc. en Dearborn, Michigan. Es también Director del Japan Industrial Technology Institute, y trabaja como consultor independiente en Japón, Estados Unidos, China, India y Europa.
Los métodos Taguchi se introdujeron en los Estados Unidos en los años 1980-82, con AT&T Bell Laboratories, Ford Motor Company y Xerox Corporation como pioneros. La Ingeniería de Calidad de Taguchi es una técnica sistemática que comprende todas las etapas del desarrollo de un producto, desde el diseño hasta la producción. Se divide generalmente en dos partes; una de ellas es la Ingeniería de Calidad fuera de línea, que es la que afecta a la optimización de los diseños (producto y proceso de producción), y la otra es la Ingeniería de Calidad en línea, y su ámbito es el control y optimización de la producción. Esta sistemática se basa en el empleo de una serie de métodos y desarrollos, tanto estadísticos como propios de ingeniería, así como unos aspectos filosóficos y culturales que enmarcan todo el proceso. Son también destacables las aportaciones del profesor Ishikawa, que intentó implicar en la calidad a todos los estamentos de la empresa, poniéndola al alcance de los niveles más bajos (desarrollo de las siete Herramientas Básicas de la calidad y la creación de los Círculos de Calidad.
Cada año se otorga en el Japón los Premios Deming a la persona o institución que destaque en la aplicación del control de la calidad. Algunas de las empresas que han obtenido dichos premios incluyen Nissan, Toyota, Hitachi y Nipon Steel. En 1989, la Florida Power and Light Company fue la primera compañía no japonesa en ganar el premio Deming.
Es evidente que la buena acogida de los principios del control de la calidad en Japón ha tenido mucho que ver con el principio japonés del kaizen, o continua búsqueda para incrementar la mejora.
Calidad total
En la década de los 60 y 70, Armand V. Feigenbaum fijó los principios básicos del control de la calidad total (Total Quality Control, TQC): el control de la calidad existe en todas las áreas de los negocios, desde el diseño hasta las ventas. Hasta ese momento los esfuerzo en la calidad habían estado dirigidos a corregir actividades, no a prevenirlas. Es así que en 1958, un equipo japonés de estudio de control de la calidad, dirigido por Kaoru Ishikawa, visitó a Feigenbaum en General Electric; al equipo le gusto el nombre TQC y lo llevó consigo al Japón; sin embargo, el TQC japonés difiere del de Feigenbaum.
Muchas empresas trabajan con el concepto de sistema Integral de Calidad, que afecta al diseño, la fabricación y la comercialización, produciéndose un fenómeno singular que afectó a la comercialización y economía industrial de muchos países, aplicando los conceptos del aseguramiento de la calidad y la prevención. El aseguramiento de la calidad en la industria de los servicios (Service Quality Assurance: SQA) también se empeñó a enfocarse al uso de los métodos de la calidad en los hoteles, bancos, gobierno y otros sistemas de servicios. El TQC requiere que todos los empleados participen en las actividades de mejoramientos de la calidad, desde el presidente de la junta de directores hasta los obreros, pasando por quienes atienden a los clientes y toda la comunidad.
Deming regresó de Japón en los años 70 a Estados Unidos y se hizo profeta en su tierra. A partir de ese momento, empezó a calar la idea de garantía de calidad entre los ingenieros americanos y la expresión Calidad Total entró en la jerga habitual de la producción. Desgraciadamente la reacción en Europa ha sido, en muchos casos, bastante más tardía quedando todavía mucho por hacer.
El concepto de Calidad Total fue definido en 1986, por J.R. Houghton, presidente de una de las compañías cristaleras más importantes en Estados Unidos, de la siguiente manera: “calidad es saber qué debe hacerse, tener las herramientas para hacerlo correctamente y luego hacerlo correctamente a la primera”.
Mejoramiento de la calidad
El final de los años 70´s y el principio de los 80´s fue marcado por un empeño en la calidad en todos los aspectos de los negocios y organizaciones de servicios, incluyendo las finanzas, ventas, personal, mantenimientos, administración, fabricación y servicio. La reducción en la productividad, los altos costos, huelgas y alto desempleo hicieron que la administración se volviera hacia el mejoramientos en la calidad como medio de supervivencia organizacional.
Hoy día muchas organizaciones se empeñan en lograr el mejoramiento de la calidad, incluyendo JUSE, ASQC, EOQC (European Organization for Quality Control), e IAQ (International Academy for Quality). Así mismo, varios centros de estudio han establecido sus propios investigaciones para estudiar este concepto como: las Universidades de Miami, Wisconsin, Tennessee, el Centro MIT para el Estudio de Ingeniería Avanzada y la Universidad Fordham.
La normalización en el control de calidad
Para llevar a cabo controles de calidad en empresas e instituciones surgen distintas organizaciones y asociaciones que crean una normativa propia a la que deben acogerse estas empresas en aras de competir con sellos de calidad reconocidos. Así surgen las normas ISO, las AENOR, las ASTM, etc.
La Organización Internacional para la Normalización (ISO), creada en 1947, es una organización internacional no gubernamental, con sede en Ginebra, que redacta y aprueba normas técnicas internacionales, en la actualidad está presente en 157 países (véase gráfica). Es el organismo encargado de promover el desarrollo de normas internacionales de fabricación, comercio y comunicación para todas las ramas industriales a excepción de la eléctrica y la electrónica. Su función principal es la de buscar la estandarización de normas de productos y seguridad para las empresas u organizaciones a nivel internacional.
La Organización ISO está compuesta por tres tipos de miembros:
· Miembros natos, uno por país, recayendo la representación en el organismo nacional más representativo.
· Miembros correspondientes, de los organismos de países en vías de desarrollo y que todavía no poseen un comité nacional de normalización. No toman parte activa en el proceso de normalización pero están puntualmente informados acerca de los trabajos que les interesen.
· Miembros suscritos, países con reducidas economías a los que se les exige el pago de tasas menores que a los correspondientes.
ISO coopera estrechamente con la Comisión Electrotécnica Internacional(International Electrotechnical Commission o IEC), su precendente histórico ya que fue creada en 1906, y que es responsable de la normalización de equipos eléctricos y electrónicos. Es un error común el pensar que ISO significa International Standards Organization o algo similar, ISO no es un acrónimo sino que proviene del griego iso, que significa igual (en inglés su nombre es International Organization for Standardization, mientras que en francés se denomina Organisation Internationale de Normalisation; el uso del acrónimo conduciría a diferentes nombres).
De este organismo surgen la familia de normas ISO 9000, que están integradas por un conjunto de modelos y documentos sobre gestión de calidad. En 1987 se publicaron las normas internacionales actuales sobre aseguramiento de la calidad. Por primera vez, cada una de ellas sirve como un modelo de calidad dirigido a determinada área de la industria, la manufactura o los servicios. En la actualidad cubren todas las funciones o posibilidades de desempeño, y tienen el objetivo de llevar la calidad o la productividad de los productos o servicios que se oferten. Aunque los antecedentes más remotos de la existencia de la norma ISO 9000 datan de hace más de 50 años, es importante destacar que la aceptación internacional de la normalización ha tenido vigencia, sobre todo, a partir de la década de 1980.
Actualmente la normalización es un requerimiento indispensable para exportar a los países del primer mundo, principalmente a los ubicados en el área de Europa; sin embargo otros países como Japón, a pesar de su indiferencia anterior, tienen ahora entusiasmo en participar en la aplicación de estas normas, ya que será imposible introducirse al mercado global si no se demuestra su cumplimiento específico para garantizar la calidad de productos y servicios al mercado futuro de los consumidores.
La ISO tiene reconocimiento mundial y está avalada por más de 75 países, mismos que aceptan su autoridad moral en cuanto a las restricciones que se establecen, en los intercambios internacionales de comercio, para aquellos que incumplen la certificación de sus modelos.
En la década de los cuarenta comenzó el desarrollo y aplicación de tablas de muestreo para inspecciones de aceptación y se publicaron tablas de muestreo para usos militares, probando su empleo por parte de las fuerzas armadas. Estas últimas dieron lugar al Militar Standard 105D, muy utilizadas por entidades públicas y privadas para el desarrollo de inspecciones de aceptación por muestreo de atributos. El Ministerio de Defensa americano publicó también su Militar Standard 414 utilizadas para muestreos de aceptación basados en variables. En julio de 1942 se formó un grupo de investigación estadística en la Universidad de Columbia, entre cuyos resultados está el desarrollo de análisis secuenciales o el uso de análisis multivariantes en control de calidad con la introducción del estadístico T2 por Harold Hotelling, uno de los principales investigadores del grupo. Las mayores contribuciones dieron como resultado la publicación de: Sampling Inspection (1948), Techniques of Statistical Analysis (1947) y Sequential Analysis of Statistical Data: Applications (1945).
De la calidad total a la excelencia en la gestión
La Calidad ha experimentado una serie de cambios en estos últimos años, especialmente a partir de 1988 con el nacimiento de la EFQM (European Foundation for Quality Management) y de la aparición del concepto de Excelencia en la Gestión. Desde la primera acepción de calidad como “conformidad con las especificaciones” hasta nuestros días con la utilización de metodologías como Seis Sigma, existe como denominador común el empleo de la Estadística.
Hasta los años sesenta la única forma de Gestión de la Calidad era el Control de Calidad. Durante los años setenta empieza a hablarse de Aseguramiento en la Calidad (“Quality Assurance”), que es definido por la organización ISO como “conjunto de acciones planificadas y sistemáticas necesarias, de carácter operativo, y utilizadas para verificar los requisitos relativos a la calidad del producto o servicio”.
Desde mediados de los años ochenta el panorama económico internacional se caracteriza por la globalización de los mercados y la aparición de nuevas tecnologías, todo ello crea un clima de competitividad como jamás se había conocido en las empresas. Surge así una nueva tendencia en la gestión de las organizaciones conocida como Excelencia en la Gestión, cuya puesta en marcha requiere un compromiso real de toda la dirección, con implicación de todas las personas involucradas en la empresa.
En Europa la Excelencia en la Gestión llega, aproximadamente, una década más tarde que en Estados Unidos. Hasta entonces, las empresas europeas adoptan modelos de Aseguramiento de la Calidad como los basados en las normas internacionales ISO 9000 (derivadas de la norma militar británica BS 5750). Estas normas contienen instrucciones y requisitos que debe de satisfacer una organización para demostrar su capacidad en cuanto a suministrar los productos conforme a los requisitos acordados, y han sido uno de los impulsores del nacimiento del concepto de Excelencia.
En los últimos años, para ayudar a las empresas y organizaciones en su camino a la Excelencia en la Gestión de la Calidad, han surgido una serie de herramientas como son el Modelo EFQM de Excelencia, el Cuadro de Mando y Seis Sigma.
En general, el “Modelo de Excelencia” es un conjunto de criterios agrupados por áreas que sirven de referencia para implementar un plan de Gestión de Calidad que pretende ajustarse a las bases de los grandes premios a la calidad. Así, los modelos más populares son los basados en el Premio Nacional de Calidad de Estados Unidos, conocido como “Malcolm Baldrige”, cuyo nombre hace referencia al Secretario de Comercio impulsor del mismo. El premio Deming es el Premio Nacional a la Calidad en Japón. A nivel europeo, a raíz de la creación en 1988 de la European Foundation for Quality Management (EFQM), se crea, en 1991, el Premio Europeo a la Calidad. Finalmente, el Modelo Iberoamericano de Excelencia a la Gestión es el último en aparecer en 1999. En este año 2003 se está realizando un nueva versión de las bases del Modelo Europeo, que comenzará a utilizarse en las candidaturas al premio de la EFQM del 2004.
El Cuadro de Mando es una herramienta para la mejora de la Calidad basada en indicadores estratégicos. Partiendo de una misión (hecha por la organización) y una visión (lo que se quiere convertir) se proponen estrategias que se seguirán mediante indicadores. El modelo conocido como Cuadro de Mando Integral (Balanced Scorecard) utiliza como elemento clave los indicadores estratégicos para el control de los procesos.
Seis Sigma (Six Sigma o 6 Sigma)
Seis sigma es sin duda, la herramienta de mayor implantación para la Gestión de la Calidad hoy en día. El término seis sigma, que prima la importancia del control de la variabilidad. Esta herramienta tiene una fuerte base estadística y pretende alcanzar unos niveles de calidad en los procesos y productos de 3.4 defectos por millón. La popularidad de Seis Sigma se hizo patente a partir de 1995 por los buenos resultados alcanzados en General Electric. Hoy en día, es una de las herramientas más empleadas en las organizaciones para la Gestión de Calidad. Hace uso de las ideas de la Calidad Total y sobre todo del empleo de métodos estadísticos como el Diagrama de Pareto, el Diseño de Experimentos, los Gráficos de Control o el Análisis Modal de Fallos y Efectos (AMFE). En definitiva, dar una mayor importancia al Control Estadístico de Procesos.
Seis Sigma nace en los años 80 en Motorola, de la mano del Dr. Mikel Harry, como un intento para conseguir mejoras sustanciales en la calidad del producto. En sus primeros años Seis Sigma se circunscribía a la mejora de procesos, pero entendida como mejora radical y profunda: una verdadera “ruptura” (según la propia terminología Seis Sigma) en los métodos de producción tradicionales.
En términos prácticos puede decirse que un proceso de producción tiene un nivel de calidad 6 sigma cuando a largo plazo presenta poco más de 3 DPMO (defectos por millón de oportunidades).
Más recientemente, y como consecuencia natural de la aplicación de la metodología, el concepto Seis Sigma se ha extendido hasta convertirse en una verdadera filosofía de gestión global de la empresa.
La aplicación de la metodología Seis Sigma a un proceso consta de cinco etapas: Definición, Medida, Análisis, Mejora y Control; las siglas DMAIC provienen de las correspondientes palabras inglesas. La Definición de un proyecto de mejora consiste en seleccionar aquel proceso cuya mejora tendrá el mayor impacto positivo en las características del producto que resulten críticas para la calidad, las determinadas CTQ (“Critical-to-Quality”), según las ha definido el cliente. Pieza clave en esta etapa es la herramienta denominada QFD o despliegue de la función de calidad.
Aunque el ciclo DMAIC constituye un salto cualitativo hacia la mejora continua, pero se puede ir un paso más allá. Cuando se trata de diseñar un nuevo proceso o producto, o cuando el actual es francamente mejorable es mejor partir de cero. Surge así el diseño para Seis Sigma (DFSS) que se basa en partir de lo verdaderamente esencial, los requisitos del cliente, y llevar esos requisitos hacia atrás, hasta la completa definición del producto, del proceso y de sus respectivas especificaciones. Esto implica realizar el diseño conceptual del producto y los estudios estadísticos de la información relevante que permita determinar la capacidad de los procesos. La metodología DFSS es una forma eficiente para asegurar la calidad en el producto final a través del diseño del producto y del proceso.
Al principio se entendía la Calidad como "conformidad con las especificaciones", y hasta muy avanzados los años cincuenta la única forma de Gestión de Calidad era el Control de Calidad. Sin embargo han surgido distintas definiciones de Calidad.
La norma ISO 9000:2000, defina la calidad como: "conjunto de características de un producto, proceso o servicio que le confieren su aptitud para cumplir los requisitos de los usuarios o clientes, o de otras partes interesadas".
Entre estos requisitos tenemos:
∙ Los establecidos expresamente por el cliente.
∙ Los no establecidos por el cliente, pero necesarios para el uso específico o previsto.
∙ Los requisitos legales y reglamentarios relacionados con el producto o servicio.
∙ Cualquier otro requisito adicional determinado por la organización.
Mediante el cumplimiento de estos requisitos se satisfacen las necesidades del cliente o usuario en cuanto a:
∙ Seguridad
∙ Fiabilidad
∙ Servicio
Inicialmente las actividades de calidad se centraban en el proceso productivo, alrededor del cual se desarrolló el concepto de control de calidad. Pero este control se realiza a posteriori, de modo que involucrando lo anterior y completándolo desde el enfoque de la prevención y la normalización se desarrolla el concepto de aseguramiento de la calidad. El siguiente paso ha sido involucrar a todas las partes. Por una parte los clientes y sus necesidades, y por otra parte, todo el personal de la empresa, dentro de un entorno de mejora continua. Nace así el concepto de gestión de la calidad. El concepto final, que involucra a todas las anteriores es la gestión de la calidad total (siglas en inglés TQM), una cultura de calidad que involucra a toda la organización, donde todas las decisiones tienen por objetivo la maximización de la satisfacción del cliente.
Asegurar la Calidad consiste, en términos de la normas PECAL de construcción militar que rigen requerimientos OTAN, en el conjunto de actividades encaminadas a dar confianza en que el conjunto de características de un producto o servicio son acordes con las necesidades o expectativas que el demandante del producto o servicio establece, en adición a aquellas de carácter normativo u obligatorio que lleve asociadas. (Véase PECAL/AQAP 2120. Requisitos OTAN de Aseguramiento de la Calidad para la Producción).
En un artículo de Garvin de 1987 se realiza una interesante discusión sobre las dimensiones de la calidad, en el que sostiene 8 posibles dimensiones que van desde la conformidad con el estandar establecido hasta la fiabilidad del producto.
Una definición propuesta por Montgomery es la de "Calidad es inversamenta proporcional a la variabilidad"
No hay comentarios.:
Publicar un comentario