Cambio de imagen y nuevos propósitos

Como podréis observar hemos actualizado ligeramente la imagen de nuestro blog con la intención de comenzar el año 2012 con energías renovadas. Todos los proyectos personales y profesionales que tenemos en marcha nos han consumido tanto tiempo desde el verano que casi no hemos podido poner nuevas entradas, pero esperamos que esto cambie para el año nuevo.
De todas formas gracias a todos por vuestra participación en todos los seminarios, conferencias, cursos y demás de los últimos meses, también es muy agradable tratar con vosotros en persona.
Lo dicho, próspero año nuevo para todos, en Enero volvemos con nuevos contenidos y agenda.
Un abrazo,

Marta&Fernando

Lean Six Sigma


Como hemos discutido en entradas anteriores, las técnicas Lean Manufacturing tienen como objetivo último la reducción de lo que no aporta valor en los procesos de producción (muda). Estas técnicas suelen involucrar a todo el personal en su implementación, se basan en muchos casos en la utilización de grupos de mejora y se nutren en gran medida de la creatividad y del sentido común. Por el contrario, las técnicas basadas en Six Sigma (en concreto, en DMAIC, que es el enfoque incremental para la mejora continua) persiguen reducir la variabilidad de los procesos de producción, suelen involucrar sólo a un grupo de personas, y estas personas tienen que recibir formación muy específica en Six Sigma y en todas las herramientas estadísticas asociadas.

En principio, combinar en un proceso de mejora herramientas y metodologías de estos "dos mundos" que parecen tan dispares, no parece tarea sencilla. Pero, si lo pensamos bien, es más fácil reducir la variabilidad de lotes pequeños (muy asociados a las técnicas Lean), y es más fácil eliminar lo que no aporta valor en procesos de poca variabilidad (controlados). Por eso es tan interesante combinar las dos metodologías. 

Además, hay que tener en cuenta que las técnicas Six Sigma ayudan a reducir costes al productor mediante el control de sus procesos y la reducción de producción defectuosa. Pero no se preocupa de aportar valor al cliente. Por el contrario, Lean aporta valor al cliente minimizando todo aquello que es innecesario, pero no se preocupa por la variabilidad de los procesos ya que se estima que los defectos de producción son sólo 1/8 de las fuentes de muda en la producción.

Lean Six Sigma intenta aportar valor al cliente ayudando al productor a controlar sus procesos y a reducir sus costes, por lo que podría ser la solución perfecta en muchas plantas. Sin embargo esta metodología todavía está muy poco extendida, especialmente en España. En los proyectos que se están llevando a cabo, se utiliza la metodología DMAIC típica de Six Sigma pero contando en todo momento con los objetivos y las herramientas propios de Lean.


Muchos de estos proyectos no están teniendo todo el éxito esperado por falta de formación para el personal, falta de comunicación, liderazgo y una correcta gestión del cambio y sobre todo, por una mala definición del alcance del proyecto de mejora. Pero esperemos que estas barreras se vayan superando con el tiempo para poder obtener los beneficios esperados con esta herramienta tan potente.



¿Cómo es por dentro mi smartphone? (y II)

Los retos actuales en el diseño de SoC para smartphones son superar la barrera de 1GHz en la frecuencia de funcionamiento de los procesadores y pasar a arquitecturas multinúcleo (comenzando por las dual core igual que ha ocurrido en los PCs). En esta dirección hay que destacar el diseño del NVidia Tegra 2 que incorporan los "superphones" de Motorola, LG y Samsung. Está basado también en un diseño ARM, pero en lugar del ARM11 habitual, incorpora dos ARM Cortex A9. Intel está trabajando también en un diseño basado en su procesador Atom que consuma menos potencia y se pueda incorporar en teléfonos móviles, aunque todavía no hay ninguna explotación comercial de este nuevo procesador.

Otros retos abiertos en la actualidad son la incorporación de displays 3D a los teléfonos y la mejora del tratamiento de imágenes y vídeo, pero estos tienen más que ver con el diseño de la GPU.

La evolución de los procesadores gráficos para móviles en los últimos años ha sido incluso más rápida que la de las GPUs para tarjeta gráfica de PC. Esto es debido a la importancia que ha adquirido la calidad de los gráficos en este tipo de dispositivos al ser la interfaz con el usuario del sistema operativo renderizada por la GPU (siendo en muchos casos 3D, excepto en Windows Mobile). La arquitectura de las GPUs móviles es muy variada, y bastante diferente de la de las GPUs para tarjeta gráfica: están alimentadas por baterías, sirven a una CPU con repertorio de instrucciones limitado, su frecuencia de funcionamiento es baja, tienen poca capacidad de memoria y escaso ancho de banda en la conexión, etc.

Por este motivo suelen trabajar en tiles de 16x16 píxeles de manera que no hacen el renderizado de la imagen completa de una pasada, sino que lo van haciendo por partes. Además utilizan técnicas de compresión de datos para minimizar las necesidades de ancho de banda con memoria.


¿Cómo es por dentro mi smartphone? (I)

Cada vez encontramos más plataformas móviles en los entornos industriales y de infraestructuras, tanto para realizar tareas de visualización como de control. Pero en la mayor parte de los casos no nos paramos a pensar en las diferencias que existen entre las arquitecturas de nuestros PCs de sobremesa o portátiles, y las de nuestros teléfonos móviles, a los que empezamos a exigir rendimientos similares.

Entendemos por smartphone (aunque no hay una definición estándar) el teléfono móvil que separa claramente el hardware de acceso a la red de telecomunicaciones del hardware empleado para la interfaz con el usuario y la ejecución de aplicaciones. Normalmente esta separación implica que el smartphone incorpora dos procesadores, siendo el más complejo el destinado a la ejecución de aplicaciones, que cada día son más variadas y más similares a las que se ejecutan en un PC.

Pero este hardware para la interfaz con el usuario y la ejecución de aplicaciones no sólo incluye una CPU para la ejecución de aplicaciones, normalmente también incorpora una memoria Flash (SLC o NAND), una memoria RAM (Mobile SDRAM o mobile DDR), una GPU, una unidad para la gestión eficiente de la energía, un codec de audio y el hardware para la conectividad del dispositivo (wifi, bluetooth, etc).

En la memoria Flash se suelen cargar el sector de inicio, el núcleo del SO, los drivers, el sistema de archivos y las aplicaciones. Esta memoria es más lenta que una RAM, pero al ser memoria no volátil no hace falta una batería extra como ocurre con las pocket PC y otros dispositivos móviles. Sin embargo la memoria RAM se utiliza como memoria de ejecución, por lo tanto almacena la pila y el montón.

Las soluciones que incorporan todos los teléfonos actuales se basan en diseños de tipo SoC (System on Chip) específicos para teléfonos móviles, que incorporan todo este hardware con el menor consumo de potencia posible. Existen distintos fabricantes, pero todos ellos han optado por utilizar como CPU el procesador ARM, de tipo RISC y similar al MIPS o al PowerPC, pero con un consumo de potencia mucho menor. Este es el procesador que incorporan los iPhone, los Nokia, los Toshiba, los HTC, etc.


Tecnologías verdes en informática industrial

Los términos Green IT o huella de carbono son cada vez más habituales en nuestro vocabulario debido a la preocupación actual por el cambio climático.

El primero se refiere a todas aquellas tecnologías que permiten reducir el consumo de energía y/o mejorar la eficiencia en su consumo. De esta manera se consigue minimizar el impacto ambiental de los equipos de trabajo, grandes servidores y datacenters de una compañía, además de mejorar su viabilidad económica reduciendo los gastos en suministros (electricidad, iluminación, aire acondicionado). Es decir, el objetivo de estas tecnologías es reducir la huella de carbono y al mismo tiempo, permitir ahorros en costes a las compañías, haciendo que sean más eficientes en la utilización de los recursos energéticos.

La huella de carbono se define como la cantidad de Gases de Efecto Invernadero (GEI) emitidos a la atmósfera como resultado de las actividades humanas (producción, comercio de bienes y servicios, etc). Normalmente se mide como emisiones directas de toneladas de dióxido de carbono.

La eficiencia energética de los equipos informáticos actuales suele cuantificarse con métricas del tipo número de operaciones/watio, y esta información puede obtenerse directamente de los fabricantes o utilizando para ello algún tipo de benchmark específico (como el SPECpower para servidores).

La preocupación por la eficiencia energética ha hecho que se cree una lista Green500 que ordene los supercomputadores en función de su eficiencia energética igual que la lista Top500 los ordena en función de su potencia de cómputo. En este caso concreto la métrica de eficiencia escogida son los MFLOPS/watio (siendo los MFLOPS millones de operaciones en coma flotante).

Por desgracia, en el campo de la informática industrial las tecnologías verdes todavía no están muy extendidas, por lo menos no como lo están en la informática generalista o en las áreas de logística y transporte. Su introducción está siendo muy lenta, así como la del manejo de métricas de eficiencia energética. Y sin embargo es un aspecto esencial para la consecución de los objetivos corporativos tanto a corto como largo plazo, por no hablar de la responsabilidad que todos tenemos sobre un ya dañado medio ambiente, por lo que es obligado tomar conciencia de la importancia de este tema y comenzar a proponer iniciativas específicas del sector, aunque sea poco a poco.

Wonderware MES 4.0 y C-MESA Honeycomb (I)

Durante los últimos tres años se ha producido una importante desacelaración en las inversiones asociadas a mejorar la productividad de los entornos fabriles. Este hecho ha provocado que la puesta en marcha de proyectos MES en España haya casi desaparecido durante este periodo de tiempo.

Sin embargo, durante los últimos meses, parece que este tipo de iniciativas vuelven a tomar protagonismo y que las empresas empiezan a reservar presupuesto para incorporar sistemas de información en la planta.

En paralelo, Wonderware ha lanzado al mercado su solución MES 4.0. Tras algunos años de cierta "incertidumbre tecnológica", Wonderware provee una solución MES integral, que permite realizar proyectos MES de forma escalable (tanto en usuarios como en funcionalidades) y cubrir todas las funcionalidades descritas por MESA a través del C-MESA Honeycomb.

Dentro de la suite de soluciones Wonderware, el módulo MES 4.0 de Wonderware incluye dos licencias funcionales: Operations (en versiones Standard y Premium) y Performance.

Durante las próximas entradas, se analizarán las funcionalidades de MES 4.0 y cómo esta solución junto a otros productos Wonderware, cubren todas las funcionalidades de un proyecto MES integral.


Periodo extraordinario de preinscripción en el MISHSA

Hoy se abre el periodo extraordinario para solicitar plaza en el Máster en Investigación en Sistemas Hardware y Software Avanzados de la Universidad Rey Juan Carlos, ya que todavía nos quedan plazas libres. Podéis preinscribiros hasta el 18 de Septiembre.

Como os he comentado otras veces, este máster oficial de 60 créditos ECTS se imparte en el Campus de Móstoles de esta universidad (en Madrid), en horario de tarde. Existen además muchas facilidades para compatibilizarlo con el trabajo ya que utilizamos mucho una plataforma de Campus Virtual.

Os dejo mi correo de contacto para el máster, para cualquier duda que os surja, ya que soy la directora:

master.doctorado_hardwaresoftware@urjc.es

Y en la web de GAAP tenéis información detallada del máster y de su plan de estudios:


Concepto de distribución física

Es necesario diferenciar los conceptos de logística y distribución física. La logística incluye las actividades referidas al aprovisionamiento de factores productivos o materias primas y al flujo de productos. La distribución física alude únicamente al desplazamiento de productos terminados o semi terminados desde su lugar de producción a su lugar de consumo. Por tanto, la distribución física se incluye dentro de la logística.

Se puede definir la distribución física como el conjunto de actividades interrelacionadas llevadas a cabo por una organización o por la integración de varias necesarias para la gestión eficiente del flujo de productos desde el almacén o la fábrica hasta el usuario, desarrollando para ello un sistema de comunicaciones que posibilite su entrega en el momento oportuno, en la forma y lugar adecuados. El sistema debe dar información acerca de stocks, volumen de inventarios, colocación, picking...

Además de la función de entrega, la distribución física incluye procedimientos que facilitan el retorno de productos a su origen producidos por la existencia de malas condiciones de productos, cambios en las necesidades de los consumidores, errores en la entrega, impagos. Por último, también incluye funciones de retorno de envases y residuos para su posterior reciclaje.

Las actividades asociadas a la distribución deben ser:
  • Eficaces, es decir los productos deben estar accesibles en tiempo, lugar y forma. Esta característica permite maximizar el servicio al cliente.
  • Eficientes, realizando esas actividades con el menor coste posible.

Paquetes de simulación: software COTS

Los paquetes y lenguajes de simulación presentan una serie de ventajas obvias frente a los lenguajes de programación de propósito general por tratarse de un software específico para simulación.

Los paquetes de simulación, también llamados en ocasiones paquetes COTS (Commercial Of The Shelf packages) proporcionan de manera automática la mayor parte de las funcionalidades necesarias para el modelado y simulación del sistema, así como para la interpretación de los resultados obtenidos. Esto reduce mucho el tiempo de desarrollo del proyecto y sus costes.

Normalmente, los modelos que se manejan con estos paquetes suelen ser más fáciles de crear, modificar y mantener. Además, la detección y corrección de errores suele ser muy sencilla, en algunos casos incluso automática. Sin embargo, nada es perfecto, y este tipo de software presenta otras desventajas:
  • Hay que aprender explícitamente a utilizarlos.
  • La ejecución de los modelos que producen suele ser más lenta que cuando se programan con lenguajes de propósito general, casi no permiten optimizaciones.
  • Suele ser más difícil la integración con otras aplicaciones o rutinas, por lo que se pierde en flexibilidad dentro de los proyectos.
  • Las limitaciones vienen impuestas por el propio producto independientemente de la habilidad de los modeladores y desarrolladores implicados.
Aún así, en el sector de la industria y de la logística, estos paquetes suelen ser la opción más utilizada. Quizás los más extendidos sean Arena, ProModel, ModSim y Extend, aunque hay otros mucho más específicos por sector.

Riesgos asociados a la adopción de Cloud Computing

La introducción de Cloud Computing en una organización lleva asociada una serie de retos y riesgos que deben ser gestionados. Este nuevo modelo de computación permite disminuir una serie de riesgos típicamente vinculados a las infraestructuras TIC, pero también introduce algunos nuevos que deben ser considerados.

Entre los riegos que un modelo Cloud Computing permite minimizar se encuentran:

  • Transferencia contractual del riesgo. Siempre que una organización externaliza un servicio, elude responsabilidades (y por tanto riesgos) que son transferidas al proveedor.
  • Especialización de los proveedores de servicios Cloud.
  • Existencia de economías de escala que permiten a los proveedores de servicios Cloud ofrecer recursos masivos. Esto facilita a las organizaciones reducir el riesgo asociado a la existencia de variabilidad en la demanda de servicios IT (por exceso o por defecto).
  • Arquitecturas Grid geográficamente distribuidas. Estas arquitecturas reducen el riesgo de que se produzcan fallos en la disponibilidad de los sistemas y/o exista una pérdida total de datos y aplicaciones debido a causas humanas o naturales.
  • Reducción del riesgo estratégico. En el caso en que la estrategia de la organización se modifique, lo harán sus procesos de negocio y de forma flexible y transparente los servicios asociados al sistema Cloud.
Por otro lado aparecen nuevos riesgos que antes no eran considerados:

  • Pérdida de control sobre los procesos críticos o clave de la organización.
  • Impacto sobre la imagen y salud financiera de la organización. A pesar de que en las SLA se recojan los niveles de servicio que deben ser proporcionados, pueden producirse paradas y fallos de servicio que afecten negativamente a la imagen y salud financiera de la organización.
  • Privacidad de datos. La confidencialidad y seguridad de los datos corporativos puede verse comprometida, ya que su almacenamiento y salvaguarda se realiza fuera de la organización.
  • Cautiverio tecnológico.
  • Incursión de tecnologías emergentes. El riesgo estratégico se incrementa ya que se abordan procesos complejos de adopción de nuevas tecnologías.
  • Gestión de las personas: El departamento TIC cambia sus funciones. De administradores y desarrolladores pasan a ser gobernates y gestores de la infraestructura tecnológica.

CPDs de verdad....

Hoy en día todas las organizaciones poseen algún tipo de CPD (Centro de Procesamiento de Datos) en el que concentran los recursos de cómputo necesarios para procesar y almacenar la información con la que trabajan. Estos CPDs suelen estar ubicados en grandes salas protegidas de manera específica ya que para garantizar la continuidad del sevicio, la seguridad física es un factor crítico que se debe tener en cuenta.

Obviamente los CPDs que estamos acostumbrados a ver no tienen nada que ver con los de las grandes organizaciones, y sobre todo, con los de los grandes proveedores de Internet. Especialmente hoy en día, cuando estos proveedores se han convertido en líderes dentro del modelo Cloud y deben dar servicio a miles de usuarios que confían en ellos para almacenar sus datos, acceder a sus aplicaciones y en general, proporcionar todo tipo de servicios TIC a través de la red.

Una de las prioridades de estos proveedores en la actualidad es convencer a sus potenciales clientes de la seguridad de sus centros de datos, ya que se está hablando mucho de los riesgos que se corren al externalizar ciertos servicios TIC y ponerlos en "la nube". También intentar mostrar que sus recursos son escalables indefinidamente y que son eficientes desde el punto de vista energético.

Leyendo sobre el nuevo CPD de Google en Finlandia (en una antigua fábrica de papel en Hamina, cerca del mar para poder aprovechar el agua en los circuitos de refrigeración) he acabado viendo este vídeo, muy ilustrativo sobre los CPDs que los proveedores están montando hoy en día. Merece la pena verlo:

http://www.youtube.com/watch?v=zRwPSFpLX8I


Ciberseguridad: lecturas sobre la situación actual

Como sabéis algunos de vosotros, hace un par de años que colaboro con la organización del congreso ICCC (International Conference on CyberConflict) que se celebra en Tallín y que tiene su origen en el estupendo trabajo que realizan en el CCDCOE (Cooperative Cyber Defence Centre Of Excellence) allí ubicado.

Aquí os dejo un enlace muy interesante en el que podéis empezar a leer acerca de estos temas para conocer la situación actual desde el punto de vista de la seguridad nacional, ya que a veces me preguntáis acerca de ciberseguridad, ciberguerra, ciberterrorimo, etc; y me parece una muy buena manera de introduciros en el tema:

http://www.ieee.es/publicaciones/cuadernos-estrategia/cuadernos/Cuaderno_149.html

Si lo que os interesa es saber cómo está la situación en lo que se refiere a protección de infraestructuras de información críticas (más bien desde el punto de vista de la industria, aunque en el caso de infraestructuras críticas, sabéis que tiene mucho que ver con la seguridad nacional), ya os he dejado en otras ocasiones enlaces al CNPIC en España y sobre todo, a la página web del DHS en EEUU (donde podéis encontrar hoy por hoy los recursos más prácticos).

Hoy os quiero mencionar un informe reciente de la Comisión Europea en el que se resumen los logros conseguidos hasta el momento en este campo y los retos que todavía están por resolver:

http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:52011DC0163:ES:HTML

Como podréis ver, todavía queda mucho por hacer...



Sistemas de información en el Ciclo Integral del Agua. Resultados encuesta (y II)

Continuamos con esta entrada, presentando los principales resultados de la encuesta realizada a varios profesionales vinculados al Ciclo Integral del Agua. (Entrada relacionada)

5.Relacione por cada sistema de información, los datos clave y/o informes tipo que le facilita para llevar a cabo su actividad.

Tras realizar un filtro, estos son los principales datos que proporcionan los sistemas de información asociados al ciclo integral del agua.

SCADA
-Tiempos de funcionamiento, número de maniobras.
-Caudales, volúmenes.
-Niveles de depósitos, profundidades de embalses, niveles de fangos.
-Estado de válvulas y bombas, frecuencias de variadores.
-Consumos eléctricos y de reactivos.
-Variables digitales como alarmas.
-Variables analógicas físicas y químicas: turbidez, presión, oxígeno, cloro, pH, temperatura, conductividad, nitratos, nitritos y fosfatos, potencial redox, sólidos en suspensión.

GIS
-Situación de elementos hidráulicos de la red de agua y de saneamiento.
-Áreas afectadas por cortes, distribución de consumos por zonas.

GMAO
-Tiempos de funcionamiento, número de maniobras.
-Estados de todos los equipos físicos de las instalaciones (bombas, motores, instalaciones eléctricas, cuadros eléctricos, calderas, compresores, etc)
-Programas de mantenimiento preventivos y correctivos realizados y en curso: tareas, equipos, planificación.

Sistema de gestión de facturación
-Número y distribución de abonados consumo por cliente, detección de fraude, gestión de deuda.
-Grupos de interés para promociones comerciales, quejas/reclamaciones.
-Rutas de lectura de contadores.

ERP
-Órdenes de trabajo, inversiones, proveedores, clientes, pedidos, etc.

DSS
-Simulación de costes por operación.

Eficiencia energética
-Consumos energéticos, distribución horaria de la demanda.

6.¿Si pudiera cruzar datos de los diferentes sistemas de información que utiliza, qué tipo de informes le serían útiles?.

A la hora de cruzar datos existe un especial interés en saber si se está produciendo de forma productiva, es decir, comparando el producto final con los recursos utilizados. Estos son los principales informes cruzados que se requieren:

-Volumen agua depurada/Facturación.
-Volumen agua depurada/Consumo eléctrico.
-Nº averías por equipo/Gasto imputable.
-Caudales por sector/Facturación por sector.
-Consumo de agua/Pérdidas en la red.
-Oxígeno disuelto/Consumo energético.
-Caudales bombeados/Consumo energético.
-Alarmas/Reclamaciones usuarios.
7.A partir de las respuestas dadas en las preguntas 5 y 6, defina qué MEDIDAS son indispensables para usted y qué DIMENSIONES deberían estar vinculadas a cada una de las medidas.

-Medidas típicas:
Todas las mencionadas en los resultados del apartado 5.

-Dimensiones típicas para poder extraer información útil de los informes cruzados del apartado 6:
Equipos, instalaciones.
Horas, días, meses, turnos.
Tarifa eléctrica.
Programa de mantenimiento preventivo o correctivo.
Área geográfica, zona, ruta.
Pluviometría y datos meteorológicos.

Estas dimensiones contextualizan los datos e informes recogidos por los sistemas de información y permiten tomar decisiones basadas en información exácta, filtradas y en tiempo real.


Tercera Edición del Máster en Investigación en Sistemas Hardware y Software Avanzados

El pasado 3 de Mayo se abrió en la Universidad Rey Juan Carlos el plazo de preinscripción para el que será el tercer curso de este máster. Se trata de un máster oficial de capacitación investigadora de un año de duración (60 créditos ECTS) dirigido principalmente (pero no exclusivamente) a titulados en Ingeniería, técnicos o superiores, o en cualquier titulación en Ciencias dentro del ámbito de las Tecnologías de la Información y Comunicaciones.

Es un máster científico/profesional cuyo interés radica en ofrecer una formación tecnológica y científica de carácter avanzado en algunas de las facetas más relevantes de la Ingeniería Informática. Su realización habilita a los alumnos que ya hayan completado previamente 240 créditos ECTS para realizar su tesis doctoral en cualquier programa de doctorado oficial.

El máster pretende formar investigadores con una formación sólida pero, también, con un perfil dinámico y abierto, capaces siempre de responder a las necesidades de la sociedad actual y futura. Te interesa si pretendes realizar tareas de I+D+i en Informática tanto en el sector público como en el privado. Las clases son en horario de tarde y fáciles de compatibilizar con trabajos a tiempo completo (además utilizamos una plataforma de Campus Virtual en todas las asignaturas). Admitimos tanto a ingenieros técnicos/diplomados, como a ingenieros superiores/licenciados, teniendo estos últimos la posibilidad de reconocer los créditos de las asignaturas que ya hayan cursado previamente. Para más información, podéis consultar la página web del máster (hay una sección de FAQ bastante completa con todas las dudas que nos plantearon los alumnos el año pasado) o poneros en contacto directamente conmigo, ya que soy la directora.a

Sistemas de información en el Ciclo Integral del Agua. Resultados encuesta (I)

Como continuación de esta entrada, se presentan los resultados y conclusiones más importantes obtenidos tras recibir las contestaciones a la encuesta realizada:

1.Identifique los procesos asociados al ciclo integral del agua que gestiona.
La primera conclusión que se extra es que los fabricantes de soluciones SCADA proporcionan soluciones que permiten adaptarse a cualquier proceso asociado al ciclo integral del agua: captación y transporte de agua, potabilización, desalación, depuración, vertidos…

2.Identifique la actividad que realiza.
En cuanto a las actividades que se realizan asociadas al ciclo integral del agua, puede observarse que las actividades de telemando y control centralizado son las más comunes y se cubren con la implantación de sistemas de supervisión y control. Sin embargo, aún no se identifica la de explotación de la información como una práctica habitual dentro del sector.

3.¿Qué sistemas de información tiene instalados en su planta/infraestructura?
A la vista de las respuestas proporcionadas y realizando una clasificación de los sistemas de información identificados, se puede concluir que existen:

-Sistemas básicos de gestión, entre los que se incluirían los sistemas SCADA, GIS y GMAO.
-Sistemas auxiliares de gestión, entre los que se encuentran los sistemas de gestión de la facturación, ERP, DSS y Eficiencia Energética.
-Otros sistemas de gestión, como son historizadores, LIMS (calidad del agua) y gestión de proyectos y obras.

4.Especifique por cada sistema de información el motor de base de datos que utiliza para almacenar información. Ejemplo: Oracle, SQL, Access…
Para los sistemas SCADA las bases de datos más utilizadas son SQL, Oracle, Access, Sybase, texto plano y propietarias. En el caso de los GIS son Oracle, SQL, MySQL. Los GMAO gestionan sus datos utilizando SQL, Oracle, Interbase o Access principalmente. En el caso de los sistemas de Eficiencia Energética SQL es la base de datos que prima. Por último los Historizadores se basan en SQL y motores propietarios de almacenamiento de datos.

De forma general, puede concluirse que SQL y Oracle son los motores de bases de datos más utilizados por los sistemas de gestión/información asociados al ciclo integral del agua y que debe destacarse la escasa incidencia de bases de datos propietarias.

Sistemas de información en el Ciclo Integral del Agua. Encuesta

El pasado 7 de abril de 2011 se celebraron las Terceras Jornadas Técnicas de Telecontrol del Ciclo Integral del Agua.

La ponencia que desde Wonderware Spain se presentó llevó como título: “Gestión inteligente de la información en el Ciclo Integral del Agua: Cómo aprovechar los datos para una utilización eficiente de los recursos”. Durante esta sesión se describió la base teórica sobre la que se sustentan las aplicaciones “Real Time Business Intelligence”, se relacionaron los factores clave que se deben tener en cuenta para su desarrollo y despliegue y se analizó su utilidad para gestionar eficientemente los recursos de información disponibles asociados al ciclo integral del agua.

Para tratar este último punto, se elaboró una encuesta que fué remitida a clientes finales, integradores, ingenierías y consultoras vinculadas al ciclo integral del agua con el objetivo de que estos, como expertos en el sector opinaran y/o informaran acerca de la aplicabilidad de estas tecnologías a su sector.

En esta entrada se relacionan las preguntas de la encuesta. En próximas, se detallarán los principales resultados y conclusiones obtenidas.

1.Identifique los procesos asociados al ciclo integral del agua que gestiona (puede seleccionar más de una opción)

a)Captación y transporte de Agua (pluviales, subterráneas, sectorizaciones, canales, acequias, trasvases)
b)Potabilización: en plantas (ETAP), desalación (IDAM), potabilizadoras
c)Depuración: en plantas (EDAR)
d)Vertidos: ríos, mar, inertes, humos
e)Otros (especifique)


2.Identifique la actividad que realiza (puede seleccionar más de una opción):
a)Telemando.
b)Control centralizado de plantas
c)Explotación de información
d)Otros (especifique)


3.¿Qué sistemas de información tiene instalados en su planta/infraestructura?
a)Sistemas SCADA.
b)Sistemas GIS
c)Sistemas GMAO (mantenimiento)
d)Sistemas DSS (soporte a la decisión)
e)Sistemas ERP
f)Sistemas de gestión de facturación
g)Sistemas de eficiencia energética
h)Otros (especifique)


4.Especifique por cada sistema de información el motor de base de datos que utiliza para almacenar información. Ejemplo: Oracle, SQL, Access…


5.Relacione por cada sistema de información, los datos clave y/o informes tipo que le facilita para llevar a cabo su actividad.
Ejemplo: Sistema SCADA: Caudal, turbidez, presión, nivel…

6.¿Si pudiera cruzar datos de los diferentes sistemas de información que utiliza, qué tipo de informes le serían útiles?.

Conteste tomando como modelo el siguiente ejemplo:

DATOS PROPORCIONADOS POR LOS SISTEMAS
-Sistema SCADA: Cantidad de m3 depurados de agua; cantidad de elementos físicos, químicos y biológicos utilizados.
-Sistema Eficiencia Energética: Cantidad de Kw/h utilizados para depurar.
-Sistema ERP: Coste de materiales y suministros necesarios para depurar.

DATOS / INFORMES CRUZADOS
-Informe de desviación de costes entre cantidad presupuestada para depurar (ERP) y cantidad real utilizada (SCADA).
-Coste (ERP) de los Kw/h utilizados para depurar (Eficiencia Energética).

Realice este ejercicio por cada grupo de sistemas/informes


7. Para facilitar el cruce de información, las soluciones Business Intelligence se basan en definir dos tipos de parámetros: MEDIDAS y DIMENSIONES.
-Una medida es un valor numérico que representa consumos, hechos, transacciones. Ejemplo: litros depurados; litros desalados; litros decantados; Kw consumidos…
-Una dimensión es una variable que permite contextualizar la medida. Ejemplo: turno, equipo, producto…
Es decir la información puede proporcionarse de forma NO CONTEXTUALIZADA. Ejemplo: 10.000 litros de agua desalados (sólo con la medida).
O bien puede proporcionarse de forma CONTEXTUALIZADA. Ejemplo: 10.000 litros de agua desalados, el día 28 de febrero, durante el turno de mañana, con el equipo de personas 3, utilizando los filtros de arena 1 y 3 y consumiendo 30.000 Kwh.

A partir de las respuestas dadas en las preguntas 5 y 6, defina qué MEDIDAS son indispensables para usted y qué DIMENSIONES deberían estar vinculadas a cada una de las medidas. Conteste de la siguiente manera.

Ejemplo:

MEDIDA: litros de agua desalados
DIMENSIONES: día, turno,equipo, tarifa


Curso de verano acerca de la mejora de la productividad empresarial

La mejora de la productividad empresarial es un área de conocimiento de creciente interés en el entorno económico actual, en constante crisis y que exige altas cotas de competitividad a las empresas que desean sobrevivir en él.

Cada vez más, son requeridos por las empresas de diferentes sectores, profesionales con conocimientos en las herramientas y metodologías necesarias para abordar esta mejora de la productividad, pero desgraciadamente no es un área tratada de manera específica en titulaciones universitarias de grado y/o postgrado.


Es por ello que la Universidad Camilo José Cela ha incluido en su oferta de cursos de verano un curso denominado Mejora de la productividad empresarial: Una necesidad en tiempos de crisis (que tenemos el placer de codirigir).


En este curso se pretende abordar el problema desde un punto de vista multidisciplinar que incluya a los procesos, las personas y los sistemas (los tres aspectos fundamentales en cualquier proceso de mejora hoy en día) y en el que se tengan en cuenta a las pequeñas, medianas y grandes empresas.


Tenéis toda la información (agenda detallada, precio, etc) en la página web de la UCJC y en la de GAAP. El curso tendrá lugar en las instalaciones de la UCJC en Madrid la semana del 4 al 8 de Julio del 2011 en horario de mañana.


Si necesitáis más información, ya sabéis donde estamos. Esperamos veros por allí.

Novedades en seguridad RFID

Este tipo de tecnología se ha ido incorporando en los últimos tiempos a pasaportes, tarjetas de crédito, identificaciones de empleados, etc. Esto implica que las etiquetas RFID contienen información como el nombre completo de una persona, su fecha de nacimiento, sus huellas dactilares o fotografías.


Ya hemos explicado en entradas anteriores cómo funciona la tecnología RFID básica, y como podéis imaginar, este tipo de funcionamiento pone en peligro cualquier información sensible que se incluya en las etiquetas.


La mayor parte de los proyectos encaminados a mejorar la seguridad de estos dispositivos estudian dos aspectos: que los usuarios sepan cuándo un lector está accediendo a la información almacenada en su etiqueta y que los usuarios puedan controlar cuándo esta información está accesible.


En cuanto al primer aspecto, se están explorando diferentes alternativas. Las más habituales, que la etiqueta se encienda, vibre o emita un sonido cuando está cerca de un lector RFID (interrogador) o cuando es accedida por uno. Es decir, existe la posibilidad de utilizar métodos preventivos o reactivos.


En el caso del segundo aspecto, quizás mucho más útil, existen diferentes soluciones. Por ejemplo, se puede diseñar la etiqueta para que sea abierta o cerrada (haciendo así la información accesible o inaccesible) por su propietario, por ejemplo con un botón o con una zona de la etiqueta que sea deslizante. También se ha propuesto que las etiquetas sean sensibles a la luz, de manera que no puedan ser leídas si se encuentran dentro de un bolso o bolsillo. O que la etiqueta sólo se active cuando se ponga en contacto físico con un lector autorizado.


Como ocurre casi siempre que hablamos de seguridad, todas estas soluciones son válidas y no aumentan excesivamente el tamaño de las etiquetas, pero encarecen la tecnología. Por este motivo se plantea que las etiquetas se dividan en dos: aquellas que no necesitan protección porque no contienen información sensible, y las que sí la necesitan.


Aún así, el desconocimiento de los riesgos que se corren, especialmente en ciertos entornos, hace que todavía no se hayan extendido las soluciones propuestas hasta el momento.

Terceras Jornadas Técnicas de Telecontrol del Ciclo Integral del Agua

Los próximos 7 y 8 de abril de 2011, se celebra en Sierra Nevada, las terceras Jornadas Técnicas de Telecontrol del Ciclo Integral del Agua.

El éxito alcanzado por las dos anteriores ha animado al Departamento de Arquitectura y Tecnología de Computadores de la ETSI de Informática y de Telecomunicación de la Universidad de Granada y al Área de Ingeniería de Sistemas y Automática a la organización de las terceras, centradas en resaltar aquellos aspectos verdaderamente innovadores en los sistemas de supervisión y control.

Wonderware Spain, como patrocinador de las jornadas, realizará una ponencia que lleva por título: "Gestión inteligente de la información en el Ciclo Integral del Agua: Cómo aprovechar los datos para una utilización eficiente de los recursos”.

Durante esta ponencia, Fernando Sevillano, Area Manager de la zona Centro/Sur explicará cómo con el fin de optimizar el ciclo integral del agua se han llevado cabo proyectos consistentes en la incorporación de diferentes sistemas de automatización y control, sistemas SCADA, sistemas GIS, sistemas de ayuda a la decisión, sistemas de gestión de consumos, etc. Generalmente, estos sistemas permiten recoger datos que provienen de diferentes fuentes, con formatos heterogéneos y son almacenados en distintas bases de datos.

En estos entornos sería deseable una capa de integración de datos que a través de procesos ETL (extracción, transformación y carga) permitiera consolidar y cruzar dichos datos para obtener información contextualizada.

Durante la sesión se describirá la base teórica sobre la que se sustentan las aplicaciones “Real Time Business Intelligence”, se relacionarán los factores clave que se deben tener en cuenta para su desarrollo y despliegue, se analizará su utilidad para gestionar eficientemente los recursos de información disponibles asociados al ciclo integral del agua y se propondrán algunas pautas para calcular el retorno de la inversión (ROI) de la implantación de estas soluciones.

Os animanos que asistáis y disfruteis con los contenidos de las ponencias y el espectacular entorno natural en el que se realizan las jornadas.

Para más información e inscripción, podéis consultar este link:

http://atc.ugr.es/jtag2011/index.html




Unos días de descanso

Nos tomamos unos días de respiro sin colgar nuevos contenidos en el blog porque estamos de baja de paternidad/maternidad. A la vuelta seguimos como siempre, pero ahora vamos a disfrutar de nuestra "criaturita" unos días al 100%.

Un saludo.

Marta&Fernando


Cómo calcular el ROI de la implantación de una solución MES (y II)

Por nuestra experiencia en este tipo de proyectos, se utilizan varios enfoques para estimar y/o calcular la relación coste/beneficios obtenidos en la implantación de soluciones MES (cuando se decide que compensa hacerlo):
  1. Utilizar una estimación cualitativa de los beneficios obtenidos y el TCO como indicador del coste.
  2. Utilizar una estimación cualitativa de los beneficios obtenidos, pero sistemática. Para ello se suele elaborar un checklist que permita determinar en qué grado se han cumplido los objetivos iniciales del proyecto MES. Por ejemplo: reducir la variabilidad del proceso de esterilización, aumentar el productividad de la línea de empaquetado, etc. Y esto se contrasta con el TCO del proyecto.
  3. Utilizar una estimación cuantitativa de los beneficios obtenidos con el proyecto. Para ello es necesario definir unos KPIs relacionados con el rendimiento del área involucrada y medirlos antes y después del proyecto para calcular la mejora obtenida. Por ejemplo: la desviación típica se puede utilizar como métrica de la variabilidad del proceso de esterilización, el OEE como métrica de la productividad de la línea de empaquetado, etc. Y se puede estimar si gracias a la implantación de la solución MES estas magnitudes han mejorado y cuánto han mejorado. De nuevo se suele utilizar el TCO como métrica para los costes.
Normalmente estos son los enfoques utilizados, pero ninguno de ellos permite realizar un cálculo del ROI. Para llegar a dar una cifra concreta del ROI sería necesario pasar, en cualquiera de los dos últimos enfoques, de la estimación de los beneficios obtenidos (sea cualitativa o cuantitativa) a cifras económicas. Es decir, traducir las mejoras realizadas a euros.

Para ello es necesario recurrir a grupos de expertos, a datos históricos o de otras empresas del sector, a simulaciones, etc. En este artículo tenéis algunas sugerencias:

http://media.roiinstitute.net/articles/pdf/2007/09/08/Converting_Data_to_Monetary_Value.pdf

Aunque ésta parte es la más complicada del cálculo del ROI y es la que realmente aportará valor a vuestros clientes, que deben estar siempre involucrados en esta parte del proyecto ya que suelen ser los que mejor conocen sus procesos.

Cómo calcular el ROI de la implantación de una solución MES (I)

Esta es la eterna pregunta en este tipo de proyectos, pero también en la implantación de otro tipo de soluciones tecnológicas.

El ROI o Return On Investment se puede calcular de varias formas, aunque la más habitual es dividir las ganancias que se obtienen con la implantación de la solución (beneficios-costes) entre los costes de esta implantación, y multiplicar este cociente por 100 darlo como un porcentaje. Se suele realizar una previsión del ROI al inicio de los proyectos para tomar decisiones en las fases de planificación, y luego una medida del ROI (como mínimo, lo recomendable en realidad es realizar varias en diferentes momentos temporales, por ejemplo, a los tres meses, a los seis y al año) cuando el proyecto ya ha finalizado para comprobar si se han cumplido los objetivos de la implantación.

Hay que ser muy cuidadoso con estas previsiones y medidas porque algunos casos prácticos han demostrado que los cálculos de ROI pueden suponer en proyectos importantes entre un 5 y un 10% de los costes totales del proyecto. Por lo tanto, se tiene que estar seguro de que esta información es necesaria y que reporta algún tipo de beneficio directo a la organización. De hecho, en algunos casos se cuestiona "el ROI de calcular el ROI".

En el caso de una solución MES, la determinación de los costes del proyecto de implantación no debería ser muy complicada (ya hemos hablado en entradas anteriores del TCO o Total Cost of Ownership), lo complicado suele ser medir los beneficios que se han obtenido con la solución escogida.

Estos beneficios suelen provenir de dos tipos de factores: aumentos en la producción, ventas, márgenes, etc o ahorros en costes. La organización MESA Internacional creó el año pasado un grupo de trabajo para intentar crear un libro guía que permita calcular el ROI de la implantación de soluciones MES, aunque todavía no hay resultados disponibles.

Tenéis información sobre este grupo de trabajo en este enlace:

http://www.mesa.org/en/modelstrategicinitiatives/returnoninvestment.asp

Y los sitios web con mejor información acerca de los cálculos de ROI son:

http://www.roiinstitute.net/
(aquí téneis el artículo ROI Basics en el que se explica la metodología completa para su cálculo)

http://www.gartner.com/technology/home.jsp
(sobre todo para que podáis ver casos prácticos)


ISA95.01: Conceptos básicos

Ya hemos hablado en entradas anteriores del estándar ISA95 para la integración de sistemas ERP con sistemas MES. Si recordáis, la parte 1 de este estándar define la terminología y el modelo de objetos que permite integrar estos dos tipos de aplicaciones, definiendo la información que deben intercambiarse.

Para ello, el estándar ISA en su primera parte, distingue entre el dominio transaccional y el de tiempo real, definiendo claramente las funciones que recaen sobre el ERP como sistema de información de negocio y las que recaen sobre el sistema MES como sistema de información en planta.

A continuación, se seleccionan aquellas funcionalidades que son críticas para la integración entre ambos tipos de sistemas y se definen los flujos de información necesarios entre ellas para que se produzca esta integración. En el modelo propuesto por ISA, estas funciones principales que deben integrarse unas con otras son:
  • Order processing.
  • Production scheduling.
  • Production control.
  • Material and energy control.
  • Procurement.
  • Quality assurance.
  • Product inventory control.
  • Product cost accounting.
  • Product shipping administration.
  • Maintenance management.

Los flujos de información identificados entre estos módulos se clasifican en diferentes categorías. En principio son tres:
  • Production capability (qué recursos tenemos disponibles para la producción).
  • Product definition information (cómo se hacen los productos).
  • Production information (qué resultados estamos obteniendo y cómo de bien lo estamos haciendo).
Esta última categoría resulta ser demasiado extensa, por lo que al traducir estos tres tipos de información a un modelo de objetos, se acaba desdoblando en dos: scheduling y performance.

Lo último que podemos encontrar en esta primera parte del estándar son los modelos UML para estas cuatro clases de información (no se detallan más los modelos de objetos, el nivel más bajo se deja para la segunda parte del estándar).

Los cuatro modelos propuestos tienen estructuras similares, definiendo los datos que deben ser intercambiados en la integración siempre como una colección de información acerca de personal, equipos, material y segmentos de proceso.



RootedCON 2011

Esta vez se me ha hecho un poco tarde para avisaros, lo siento, pero para los que estáis interesados en temas de seguridad y nos pedís que os anunciemos los eventos más interesantes, aquí tenéis uno de ellos:

http://www.rootedcon.es/

Se celebra los próximos 3, 4 y 5 de Marzo en Madrid, y podéis ver en la página web qué ponencias se van a celebrar.


Cloud brokers

Dentro del modelo de negocio que hay detrás de los sistemas cloud se suelen contemplar tres tipos de agente: el cliente de los servicios, el proveedor de los servicios y el desarrollador de los servicios (que puede coincidir o no con el proveedor).

Pero últimamente ha surgido una nueva figura, el Cloud Broker, que suele situarse entre el consumidor y el proveedor.

En un entorno tan complejo como el de la nube, este tipo de agente suele cumplir con tres funciones esenciales:
  • Consultoría y arbitraje: El broker se encarga de asesorar al consumidor acerca del mejor proveedor para sus necesidades concretas y realiza funciones de intermediación en la definición de las SLA. También se encarga de velar por su cumplimiento y de realizar labores de arbitraje ante cualquier problema que surja entre ambas partes.
  • Agregación: El broker se encarga de ofrecer los servicios de diferentes proveedores cloud a un cliente como si se tratara de un único proveedor, añadiendo un nivel de abstracción que permite a los usuarios finales acceder a diferentes clouds de manera transparente.
  • Valor añadido: El broker se encarga de completar los servicios ofrecidos por un proveedor con otros propios relacionados con las pruebas y auditoría, con la seguridad, con el diseño de interfaces, etc.
En algunos casos el broker se ofrece desde el propio proveedor de servicios y en otros casos, se trata de un agente independiente. Pero como parece que cada vez serán más necesarios los brokers como intermediarios, parece lógico pensar que las organizaciones que apuesten por el modelo cloud los incluyan dentro de su propio personal. De esta manera, las habilidades en gestión de proyectos y gobernanza de TIC serán más importantes para los departamentos técnicos de muchas organizaciones que las de desarrollo y programación. Y además este tipo de figura intermediaria puede adaptarse con facilidad a otros entornos tecnológicos y de negocio que no sean exclusivamente el de Cloud Computing.



¿Qué es la lógica difusa?

El término fuzzy logic (lógica difusa) aparece mucho en sistemas de control industrial. La palabra fuzzy se refiere a "términos, frases o sentencias que no son suficientemente claras, no son bien conocidas, o su especificación está sujeta a la estimación, subjetividad o intuición". Por ejemplo, mucho, poco, varios, más o menos, alrededor de, etc.

Este tipo de expresiones se formalizaron matemáticamante hace ya bastantes años con la teoría de conjuntos difusos que ahora sirve de base para estos sistemas de control industrial tan de moda.

Simplificando mucho, en la teoría de conjuntos clásicos hay una relación directa entre la pertenencia/no pertenencia de un elemento al conjunto y la lógica binaria o booleana: el 1 equivale a la pertenencia y el 0 a la no pertenencia.

Por el contrario, en el caso de los conjuntos difusos, el grado de pertenencia de un elemento a un conjunto tiene un rango entre 0 y 1, de manera que vale 0 para los elementos que no pertenecen al conjunto, vale 1 para los elementos que sí pertenecen a él, y toma valores intermedios para los elementos de frontera.

Esto permite formalizar de manera relativamente sencilla situaciones de incertidumbre, ambigüedades, aproximaciones, percepciones y sensaciones, que son muy habituales en el mundo real y en la vida cotidiana, y que se suelen expresar mediante el lenguaje.

Por ello los sistemas de control basados en lógica difusa se construyen alrededor de un conjunto de reglas de conocimiento. Una regla es una frase o sentencia que consta de dos partes: una premisa o antecedente y una conclusión o consecuente. El antecedente define las variables de entrada al sistema de control y el consecuente, define el resultado. Es decir, son reglas del tipo IF (antecedente) THEN (consecuente): por ejemplo, IF (caudal es alto) THEN (disminuir la temperatura).

En futuras entradas hablaremos de las aplicaciones de este tipo de sistemas de control.



Mejores prácticas para grupos de mejora (y II)

4. El jefe de grupo debe decidir cuándo convocar las sesiones de trabajo y es muy importante que antes de cada una de ellas se defina con una agenda su objetivo, las personas convocadas, el material que debe revisarse antes o durante la sesión, etc. La duración de cualquier sesión no debería superar las dos horas.

5. La participación en el grupo debe primarse/recompensarse de alguna manera. El reconocimiento a las aportaciones realizadas por los miembros del grupo debe ser, como mínimo, personal, pero a ser posible, económico. De esta manera la motivación será mucho mayor.

6. El resultado más importante de los grupos de mejora suele ser un plan de acción que recoja las acciones de mejora que deben llevarse a cabo con sus responsables asociados, así como las fechas límite para su realización. Para realizar el seguimiento de este plan de acción y evaluar los resultados obtenidos, suele ser recomendable la figura del Gestor del Proyecto en Planta como representante del grupo en el día a día de la fábrica. Su misión principal es el seguimiento y verificación en planta del grado de avance de las acciones de mejora establecidas, de manera que se hace reponsable de un programa de observación/evaluación del que se pueden extraer conclusiones muy valiosas para el proyecto de mejora.



Mejores prácticas para grupos de mejora (I)

Un grupo de mejora continua es el conjunto de personas responsables de la elección, definición, priorización y supervisión/evaluación de las acciones de mejora que se deben llevar a cabo en procesos de mejora continua. Puede que se encarguen de su aplicación directa o no, pero lo que está claro es que un proyecto de mejora continua nunca será responsabilidad de una única persona.

En un curso que realizamos la semana pasada llegamos a una serie de conclusiones acerca del trabajo con estos grupos.

1. Los grupos de mejora pueden tener diferentes composiciones atendiendo a:
  • Las áreas que están involucradas en la mejora (homogéneo o multidisciplinar).
  • Su temporalidad (permanente o no).
  • El tipo de agentes que intervienen (externos o internos).
  • La naturaleza de las técnicas de mejora que se van a utilizar (Lean, ingeniería forense, etc).
Pero sea cual sea el tipo de grupo, cuando se trabaja con ellos hay que tener en cuenta que van a pasar por estas fases (Tuckman´s Group Development Model, 1965):
  • Forming (fase inicial de formación del grupo y conocimiento de sus miembros entre sí).
  • Storming (fase de dinámica de trabajo poco ordenada, el grupo debe encontrar la manera de trabajar eficientemente, de momento no se ha estblecido una manera estándar de trabajar conjuntamente).
  • Norming (fase en la que se establecen las normas, formales o informales, que permiten que el grupo desarrolle su labor).
  • Performing (fase de dinámica de trabajo normalizada, el grupo trabaja al 100% de su potencial).
  • Renewing (fase de renovación de los miembros del grupo).

2. Además de tener en cuenta estas fases o etapas, también se debe observar si el jefe del grupo tiene las capacidades adecuadas de comunicación, liderazgo, gestión del cambio y toma de decisiones; ya que será imprescindible que así sea para fomentar un correcto trabajo en equipo.

3. El jefe de grupo debe tener siempre presente la misión del grupo de mejora y su composición para formentar la participación adecuada de todos los miembros del grupo. Para que las sesiones sean productivas, los grupos no deberían superar las 9 ó 10 personas y debería distinguirse entre grupos orientados a instalaciones/equipos y grupos orientados a proceso.


Managed Security Service Provider

Muchas organizaciones y pequeñas y medianas empresas no pueden permitirse la creación y mantenimiento de departamentos de seguridad de la información. Por este motivo desde el año 2000 se maneja el concepto de MSSP (Managed Security Service Provider), un proveedor de servicios que en este caso no se encarga de proporcionar el acceso a la red (como el ISP ó Internet Service Provider) sino de proporcionar servicios de seguridad gestionados.

De esta forma, mediante out-sourcing, muchas empresas que de otra manera no podrían permitírselo, pueden acceder a servicios de control de seguridad para sus redes, servidores y bases de datos, de análisis y mantenimiento de la seguridad y de consultoría de seguridad. Las empresas que se han convertido en MSSPs en estos años suelen ofrecer servicios de firewall gestionado, VPN gestionada, IDS (sistema de detección de intrusos) gestionado, antivirus gestionado, filtrado gestionado, análisis de vulnerabilidades gestionada, etc.

La utilización cada vez más frecuente de sistemas de tipo Cloud Computing, especialmente en su modalidad de Software as a Service (SaaS), está haciendo que las organizaciones y empresas sean más receptivas a la subcontratación de ciertos servicios críticos para su correcto funcionamiento. El concepto de Security as a Service ya ha comenzado a extenderese aunque todavía plantea ciertos problemas prácticos que hay que resolver, como por ejemplo, la dificultad de obtener ciertas certificaciones de seguridad (como puedan ser las ISO/IEC 27001) cuando los servicios de seguridad están externalizados.


Aclarando conceptos acerca de diseño de procesadores

En los comienzos de año los grandes fabricantes de procesadores suelen publicitar sus nuevos lanzamientos y explicar las novedades de su roadmap.

En este 2011 una de las grandes novedades ha sido el nuevo diseño de Intel, denominado Sandy Bridge, que para finales del 2011 será la base de casi todos los procesadores de este fabricante que continúa así con su filosofía de lanzar diseños modulares que puedan adaptarse a los diferentes segmentos de mercado (i3, i5, i5, Celeron, etc). Este nuevo diseño se basa en la tecnología de 32 nm de Intel.

Aprovecho este lanzamiento para aclarar algunos conceptos que suelen confundirnos a todos:
  • Cuando se habla de tecnología de 32 nm, nos referimos al tamaño de los transistores que componen el procesador. Como sabéis los procesadores actuales se basan en transistores de tecnología MOS, y este tamaño es la medida de la puerta de estos transistores.
  • En ocasiones se habla de densidad de integración en lugar de hablar de tamaño de transistor. Son magnitudes inversamente relacionadas, ya que la densidad de integración mide la cantidad de transistores que caben por unidad de área: cuanto más pequeño sea el transistor, mayor cantidad nos cabe en el mismo área de chip.
  • ¿Y qué relación tiene todo esto con la alimentación y con el consumo de potencia? Cuanto menor sea el tamaño del transistor utilizado para fabricar el procesador, menos tensión de alimentación (voltios) se necesita para que pueda funcionar (la puerta de los transistores es más pequeña, se necesita menos esfuerzo para que pueda conducir electricidad). Y si disminuye esta tensión de alimentación, disminuye el consumo de potencia del procesador.
Ahora bien, uno de vosotros me comentaba el otro día que no entendía por qué el Sandy Bridge sólo se había lanzado con versiones de 4 y 2 cores. Si el transistor es más pequeño ¿por qué no se han incluido directamente más núcleos de ejecución en el procesador para que éste sea más potente?

La respuesta es sencilla. Más cores no implica necesariamente más rendimiento, sin embargo sí implica más consumo de potencia (y más problemas para refrigerar los sistemas adecuadamente). Por eso los diseñadores han preferido aprovechar la cantidad "extra" de transistores que tenían disponibles para mejorar el rendimiento del procesador de otras formas.

Os doy algunos ejemplos, aunque si queréis otro día analizamos este nuevo diseño con más detalle:
  • Se ha integrado hardware específico para procesamiento de vídeo dentro del procesador.
  • Se han incluido Advanced Vector Extensions (AVX) de 256 bits como mejora a las extensiones SSE que permiten realizar operaciones vectoriales (típicas del trabajo con multimedia).
  • Se ha introducido un nivel 0 de caché que almacena microinstrucciones ya decodificadas y que puede evitar el proceso de decodificación posterior.
  • Se ha diseñado un nuevo bus en forma de anillo para conectar todos los cores con la caché de nivel 3 (denominada LLC o Last Level Caché) y que mejora mucho el rendimiento de esta caché compartida.
  • Se ha optimizado el módulo que controla el consumo de potencia del procesador de manera que pueda manejar hasta tres dominios de frecuencia diferentes, controlando las zonas que se encienden y se apagan según lo que se esté ejecutando en cada momento.

Organizaciones gestionadas en tiempo real

La gestión corporativa en tiempo real ha proporcionado ya importantes beneficios a las organizaciones que han implantado esta estrategia. A continuación se describen someramente los casos de Zara, General Electric y Mercedes Benz como ejemplos de organizaciones gestionadas en tiempo real.

Zara. Los puntos clave sobre los que se sustenta el exitoso modelo de negocio de la empresa textil española son tres: la capacidad de generar diseños ágilmente, de recoger información en tiempo real de los gustos de su público objetivo y disponer de un proceso logístico particular.

Para desarrollar la primera idea, Zara posee un sistema de fabricación que les permite diseñar y lanzar al mercado más de 10.000 nuevos diseños anualmente.

Para la segunda, esta organización ha implantado soluciones de gestión de la información
en tiempo real y procesos de recogida de información que proviene de su público objetivo. Los campus universitarios, lugares de ocio o discotecas, son los lugares elegidos para llevar a cabo estos procesos.

En lo que se refiere al proceso logístico, Zara, en vez de distribuir grandes lotes de ropa en pocos envíos para reducir los costes asociados, realiza dos envíos semanales por avión desde sus centros de producción ubicados en España a todos sus almacenes ubicados por todo el mundo.

Como consecuencia de estas medidas, Zara es capaz de cambiar el 70% de sus productos en un rango temporal inferior a quince días, adecuándose a los gustos de su público objetivo. Se han implantado procesos y una cultura de empresa que hace que las personas actúen y decidan en tiempo real. Zara se presenta como una empresa capaz de reconocer los gustos más actuales de sus clientes, abasteciendo siempre al mercado en los momentos de alta demanda comercial y no incurriendo en sobreproducción en caso de que ésta decrezca.

General Electric. Esta empresa multinacional americana altamente diversificada (infraestructuras, servicios financieros y medios de comunicación) utiliza la tecnología para reaccionar en tiempo real a los cambios que se producen en su entorno.

La adecuación de GE a una empresa en tiempo real implica que la organización debe responder rápidamente a cambios, reducir los ciclos de procesos corporativos y mejorar la gestión de riesgos.

Para esto GE pone en marcha tres iniciativas que soportan la implantación del modelo de gestión en tiempo real. El e-Sell que permite a los clientes a realizar los procesos de venta on-line, permitiendo una reducción del coste del 35%. El e-Buy que se desarrolla con la misma filosofía que el e-Sell pero orientado a los procesos de compra. Y por último el e-Make cuya finalidad es servir de cuadro de mando a los directivos de GE de manera que puedan tener visibilidad del estado de los diferentes procesos de negocio que se ejecutan en la organización.

Mercedes Benz. La multinacional alemana es la primera empresa del sector del automóvil que permite llevar a cabo los procesos de compra a través de Internet. Además a través de su web, proporciona información adicional acerca de tráfico, situación metereológica, noticias, etc. Los resultados de esta iniciativa se plasman en la reducción de un 80% del tiempo de realización de pedidos.

Otra iniciativa llevada a cabo por Mercedes Benz es la puesta en marcha de un sistema SCM (Supply Chain Management) que permite la planificación en tiempo real de las órdenes de producción y de la realización de pedidos de partes a proveedores, dependiendo de la demanda comercial. Este sistema permite evitar cuellos de botella y paradas en líneas de producción.

En la cadena de producción se incorporan sistemas SCADA que permiten acelerar el proceso de fabricación y visualizar y controlar en tiempo real el ensamblaje del vehículo.

Toda la gestión de compras y negociación con proveedores está basada en la herramienta Covisint que les permite agilizar dichos procesos y ahorrar costes asociados a negociación.

Por último, Mercedes Benz pone en marcha un portal para el empleado en el que consolida información de interés para las personas pertenecientes a la empresa y les permite personalizar los contenidos a cada persona.
n

PYMES y nuevas tecnologías

Las TIC son una de las herramientas más valiosas con las que cuentan las empresas a la hora de adaptarse los actuales mercados, cambiantes y competitivos. En la mayoría de los casos las empresas intuyen los desafíos y ventajas que las TIC representan, pero cada empresa, en función de la situación geográfica, la actividad y el tamaño que tenga, presentará necesidades y/o carencias diferentes, que requerirán, por tanto, soluciones también diferentes. Y modelos de implantación e integración diferentes. Del mismo modo, cada empresa, presenta una realidad de partida, que deberá tomarse en cuenta a la hora de tomar decisiones.

En los últimos tiempos se nos están demandando desde diferentes foros, conferencias y cursos relacionados con la innovación tecnológica, sobre todo, orientados a la PYME. Desde nuestro punto de vista, esta innovación trae consigo una serie de ventajas como:
  • Mejora de la competitividad.
  • Mejora de la productividad.
  • Reducción de costes.
  • Apertura de nuevos mercados.
  • Mejora la relación con clientes y proveedores.
Y así intentamos transmitirlo en todas nuestras intervenciones. Sin embargo nos encontramos con un panorama bastante descorazonador en el que hablar de sistemas de información, metodologías de integración, seguridad, gestión de proyectos, etc; es hablar casi de ciencia ficción para muchas de nuestras empresas. Especialmente en algunos sectores entre los que tenemos que incluir al industrial.

Investigando un poco, nos encontramos con la encuesta del INE acerca del uso de TIC y comercio electrónico en las empresas españolas. Y nos damos cuenta de que todavía estamos en la fase en la que consideramos que tener un ordenador y una conexión a Internet ya se considera innovación tecnológica. Este es el enlace de la nota de prensa con los últimos datos recogidos, por si queréis echar un vistazo:

http://www.ine.es/prensa/np618.pdf

Reflexionando acerca del tema y hablando con muchos de nuestros seguidores, nos parece que la falta de innovación es en muchos casos fruto de una combinación de varios factores. Primero, de factores internos como el desconocimiento de los posibles beneficios que pueden reportar ciertas tecnologías o la falta de formación del personal. Y después de factores externos como el coste de las soluciones que ofrece el mercado, la limitada transferencia tecnológica desde el sector de I+D y la falta de comunicación entre los proveedores y los posibles clientes.

¿Qué os parece a vosotros? ¿Por dónde deberíamos empezar a solucionar este grave problema?


II Curso de Redindustria para la mejora de la productividad industrial

Tras el éxito obtenido durante la primera edición del curso para la mejora de la productividad industrial que impartimos en el Centro Español de Logística (CEL) durante el mes de mayo del pasado año, tenemos el placer de anunciaros que esta institución ha vuelto a solicitar nuestra colaboración para llevar a cabo la segunda edición del curso.

En esta ocasión tanto Marta como yo, estaremos los días 2 y 3 de febrero (miércoles y jueves) impartiendo este curso que tiene como principales objetivos los de proporcionar a los asistentes una visión general de las herramientas y metodologías existentes en la actualidad que permiten mejorar la productividad en entornos fabriles y profundizar en los conceptos asociados a la métrica OEE como forma estándar de medición de la productividad industrial.

El curso tiene una duración de 8 horas y se imparte en horario de 17:00 a 21:00 horas. A continuación os presentamos la agenda detallada del curso:

Primera sesión (miércoles 2 de febrero).

MÓDULO 1. CONCEPTO Y MEDICIÓN DE LA PRODUCTIVIDAD INDUSTRIAL
  • Concepto y definiciones de productividad industrial.
  • Métricas para la cuantificación de la productividad industrial.
  • Medida de la productividad industrial.
  • Overall Equipment Effectiveness (OEE).
  • Otras métricas asociadas (TEEP, TDC, SPR, MTBF, MTTR).

MÓDULO 2. ENFOQUES Y METODOLOGÍAS PARA LA MEJORA DE LA PRODUCTIVIDAD INDUSTRIAL
  • Enfoques para la mejora continua de procesos.
  • El papel de los procesos: Enfoque incremental e Ingeniería forense para la mejora de la productividad
  • industrial.
  • Lean Manufacturing (VSM, 5S , QFD, TPM, KANBAN, SMED, Kaizen, Poka Yoke, etc).
  • Aplicación de HazOp, Fault Tree Analysis (FTA), Failure modes and effects analysis (FMEA) y Failure
  • Mode, Effects, and Criticality Analysis (FMECA).
  • El papel de las personas: Grupos de mejora.
  • El papel de la tecnología: Cuadro de Mando Industrial.

Segunda sesión (jueves 3 de febrero).

MÓDULO 3. HERRAMIENTAS ASOCIADAS A LA MEJORA DE LA PRODUCTIVIDAD INDUSTRIAL
  • Captura automática de datos de planta.
  • Drivers industriales.
  • OPC.
  • Soluciones MES (Manufacturing Execution System).
  • Funcionalidades de un sistema MES.
  • MES y procesos de mejora.
  • Estándares para la integración de datos.
MÓDULO 4. EJERCICIOS, CASOS DE ÉXITO Y AUTOEVALUACIÓN
  • Casos de éxito realizados.
  • Elaboración de casos prácticos.
  • Conclusiones y futuro.
  • Ejercicio de autoevaluación.

Os dejamos el enlace a toda la información del curso dentro de la página web del CEL, también tenéis el boletín de inscripción. Espero que os animéis y que podamos veros por allí (para los que no estáis en Madrid y no podáis desplazaros, a ver si más pronto que tarde podemos dar alguno de nuestros cursos más cerca vuestra).

http://www.cel-logistica.org/index.php?seccion=0&accion=detalleNoticia&id=302




Curso de invierno INDEM en la Universidad Carlos III de Madrid

La Universidad Carlos III de Madrid organiza los cursos INDEM (Instituto sobre Desarrollo Empresarial) que tienen como objetivo dar una formación práctica en un formato de 4-5 días, sobre una diversidad de temas de actualidad.

redindustria participa en este curso que creemos puede ser de vuestro interés: "El papel de los sistemas y tecnologías de información en la gestión empresarial".

Es un curso de 20h que se imparte entre los días 7 y 11 de febrero en horario de 17:00 a 21:00. El precio del curso es de 290€.

En este link podéis encontrar más información acerca del programa detallado del curso y forma de inscribiros.

Nosotros impartimos una ponencia de 4 horas que lleva por título: "Tecnologías emergentes y las nuevas oportunidades que aparecen para la mejora de la gestión empresarial: RFID, Cloud Computing y Sistemas de Información en tiempo real".

Esperamos contar con vuestra asistencia.