El HW en sistemas de tiempo real

Uno de los aspectos más importantes que hay que tener en cuenta cuando diseñamos un sistema de tiempo real es que el hardware escogido para su implementación final no debe introducir aleatoriedad en el sistema.

El sistema debe ser lo más predecible posible, y esto afecta al procesador, a la jerarquía de memoria y al sistema de E/S, especialmente cuando los sistemas son Hard Real Time. En este tipo de sistemas no se suele utilizar memoria caché, la paginación se realiza en situaciones muy controladas, se desactivan los esquemas de predicción del procesador, etc. Todos estos factores añaden una aleatoriedad que hace que sea difícil demostrar que el sistema es viable, es decir, que cumple con los plazos especificados.

Un ejemplo típico lo podemos encontar en multitud de sistemas industriales, en los que se prefieren redes de tipo CANBus a las redes Ethernet, porque éstas últimas no son deterministas y no pueden garantizar siempre la misma latencia de comunicación entre dos extremos.

Ahora que ya hemos mencionado uno de los aspectos más importantes en la selección de la plataforma HW del sistema de tiempo real, ¿qué requisitos cree que debe cumplir un sistema operativo o una arquitectura SW para poder formar parte de un sistema de este tipo?.

Protocolos TCP/IP (III)

Hasta ahora hemos visto como un computador se puede identificar dentro de una red con la dirección de Internet o IP que permite que el protocolo IP realice el encaminamiento de la información desde el origen en una red hasta el destino en otra red diferente. Además sabemos que existe otra dirección, la dirección MAC ó física, asociada a cada tarjeta de red.

Pero los usuarios y aplicaciones no suelen utilizar ninguna de estas direcciones sino nombres mucho más sencillos de recordar. DNS ofrece un servicio de nombres jerárquico para equipos basados en TCP/IP. Esta estructura jerárquica incluye los siguientes niveles:

  • Dominio Raíz: Contiene a todos los demás dominios, es la parte más alta de la jerarquía y se representa con un punto.
  • Dominio del Nivel Superior: Estos dominios se organizan según el país al que designen o al tipo de organización y siempre se nombran con dos o tres letras. Algunos ejemplos son com, es, edu, org,...
  • Dominios de Segundo Nivel: Sirven para diferenciar una organización de otra y su longitud es variable.
  • Nombres de hosts o recursos: Permiten identificar a un ordenador independiente, a una red privada o a un recurso específico dentro de un dominio de segundo nivel o de un subdominio.

En la figura siguiente se muestra la jerarquía de dominios para la máquina casiopea.etsii.urjc.es:



Cuando un ordenador necesita conectar con otro, lo que conoce normalmente es su nombre de dominio, pero necesita su dirección IP para establecer la comunicación. Para conseguir esta traducción se siguen los siguientes pasos:

  • La aplicación cliente DNS intenta resolver el nombre de manera local. Para ello consulta los posibles archivos de hosts del sistema, en los que se almacenan las correspondencias nombre-dirección que se conocen.
  • Si el nombre no se puede resolver localmente, se envía la petición al servidor DNS configurado como ‘preferido.
  • Si el nombre no se puede resolver en este primer servidor, se utiliza la recursividad. Es decir, el servidor preferido acude a otros servidores DNS para buscar la información que se le ha solicitado.
  • Una vez conocida la dirección IP del computador destino, esta dirección permite llegar desde la red del origen hasta la red del destino.

Pero para llegar finalmente a ese computador destino es necesario conocer su dirección MAC. Para hacer la traducción de IP a MAC se utiliza el protocolo ARP. Este protocolo va asociado al protocolo IP y permite que todos los equipos conectados en una misma red conozcan la traducción IP-MAC del resto de equipos de la red. Esta traducción es un proceso distribuido entre todos los equipos y transparente al usuario, no es mediante aplicaciones cliente-servidor.

Por lo tanto, un computador o dispositivo se puede identificar dentro de la red con su dirección MAC, con su dirección IP y con su nombre DNS. La siguiente figura resume los mecanismos de traducción que se emplean para pasar de un identificador a otro.


Link. AWWA & Wonderware

La American Water Association (AWWA) ha identificado cinco objetivos principales que se pretenden alcanzar en la gestión del Ciclo Integral del Agua.

1. Minimizar el impacto de la creación de nuevas infraestructuras. (obra civil o sistemas de gestión).
2. Establecer presupuestos competitivos.
3. Adaptarse naturalmente a las condiciones que impiden el incremento de tarifas. El agua como recurso escaso y de primera necesidad.
4. Formar y cualificar a la fuerza de trabajo.
5. Adaptarse a las normativas del sector aguas y potenciar las actividades que permitan generar nuevas fuentes de aguas.
¿Cómo ayuda Wonderware a alcanzar alguno de estos objetivos?
Punto 1. Infraestructuras.
  • La tecnología Wonderware:Permite integrar fácilmente sistemas nuevos y propietarios en un único modelo, que se convierte en la piedra angular de INFORMACION de su sistema.
  • Le permite monitorizar y gestionar la vida de la infraestructura existente: utilización de equipos, paros/marchas, disponibilidad.
  • Le permite detectar rápidamente anomalías en las operaciones de equipos antiguos así como notificar condiciones de alarmas remotas.
  • Extiende la vida útil de los sistemas software gracias a su escalabilidad y su capacidad de añadir funcionalidad con el tiempo.
Puntos 2 y 3. Presupuestos y Tarifas.
  • Mejoras en la eficiencia operativa.
  • Incremento en productividad.
  • Eficiencia en ingeniería.
  • Fácil mantenimiento.
  • Fácil distribución de software.
  • Reducción del coste de propiedad.

Punto 4. Fuerza de Trabajo.
  • El Incremento de productividad permite a los empleados actuales centrarse en actividades que aportan valor a la gestión.
  • El fácil acceso a datos remotos facilita la labor del personal técnico.
  • Su facilidad de uso se traduce en una menor necesidad de training.
  • La implementación de estándares permite unas consistentes operaciones en todo el sistema y a medida que este se expande.
Punto 5. Normativa.
  • La tecnología Wonderware le ayuda en su proceso de acuerdo con las normativas vigentes, y provee visibilidad de desviaciones y alertas ante condiciones anormales.

Conocimiento de la Productividad Industrial

Conocer el estado actual de la productividad industrial implica conocer de forma Ordenada, Sistemática, Transparente, Completa (Interdepartamental), Concisa, Clara y Rigurosa el estado actual de los Cinco Factores Básicos de la Operación Industrial.
Productos / Procesos / Instalaciones / Sistemas / Personas
Productos.
  • Producción Actual versus Producción Teórica.
  • Estado de la Producción Actual respecto a la Demanda Comercial.
  • Estado de Improductividades y No Conformidades.
Procesos.
  • Verificación de la Capacidad del Proceso.
  • Comprobación de la Idoneidad del Proceso.
Instalaciones.
  • Estado de la Conectividad de los Equipos.
  • Estado actual de la Eficiencia Productiva de los equipos.
Sistemas.
  • Programación Efectiva de la Fabricación.
  • Sistemas de Gestión de la Producción.
Personas.
  • Aplicación de Mano de Obra Directa e Indirecta.
Los resultados de este Conocimiento son:
  • Estado Pre-existente Completo de la Productividad del área Industrial de la empresa.
  • Potencial de Incremento de Productividad Pre-existente.
  • Especificación de Fase de Gestión.

--Normalización. La productividad industrial, está por debajo del mínimo teórico.

--Optimización. La productividad industrial es susceptible de mejora, aplicando metodologías de Incremento de la productividad.
--Consolidación. La productividad industrial mantiene sus niveles óptimos de eficiencia.
Las consecuencias de la Mejora de la Productividad son:
  • Repercusión Directa sobre la Cuenta de Explotación de la Empresa.
  • Reducción de los Costes Industriales.
  • Descenso del Nivel porcentual de Fallos, Ineficiencias y No Conformidades.
  • Mejora de la Calidad de los Productos.

Evento. JTAG 2008.

Las II Jornadas Técnicas de Telecontrol del Ciclo Integral del Agua, se celebrarán en Sierra Nevada (Granada) los próximos días 3 y 4 de Abril.

Organizadas por el área de Ingeniería de Sistemas y Automática, perteneciente al Departamento de Arquitectura y Tecnología de Computadores de la Universidad de Granada, este año las Jornadas se centrarán en "resaltar aquellos aspectos verdaderamente innovadores en los sistemas de supervisión y control".

Wonderware Spain y el grupo GAAP de la Universidad Rey Juan Carlos participarán en una de las charlas (en concreto, por allí estaremos Fernando y yo, los fundadores de este blog). Además, Wonderware colabora activamente en la organización de las jornadas, junto a otras empresas como ICR o Schneider.

Para más infomación:
http://atc.ugr.es/jtag2008/index.html

Concepto de OPC

El OPC (OLE. Object Linking and Embedding for Process Control) es un estándar de comunicación en el campo del control y supervisión de procesos.

Este estándar permite que diferentes fuentes de datos envíen datos a un mismo servidor OPC, al que a su vez podrán conectarse diferentes programas compatibles con dicho estándar. Es decir, los fabricantes de PLC o de Dispositivos de Campo, incorporan en el Hardware, un componente Software (Servidor OPC), que envía datos a las aplicaciones que son OPC Cientes.

De este modo se elimina la necesidad de que todos los dispostivos cuenten con drivers para dialogar con múltiples fuentes de datos, basta que tengan un driver OPC.


En realidad OPC es un conjunto de protocolos entre los que podemos destacar los siguientes:

  • OPC-DA (Data Access).- El original, sirve para el intercambio de datos a tiempo real entre servidores y clientes.
  • OPC-AE (Alarms & Events).- Proporciona alarmas y notificaciones de eventos.
  • OPC B (Batch).- Útil en procesos discontinuos.
  • OPC DX (Data eXchange).- Proporciona interoperabilidad entre varios servidores.
  • OPC HDA (Historical Data Access).- Acceso histórico a datos OPC.
  • OPC S (Security).- Especifica cómo controlar el acceso de los clientes a los servidores.
  • OPC XML-DA (XML Data Access).- Sirve para el intercambio de datos entre servidores y clientes como OPC-DA pero en vez de utilizar tecnología COM/DCOM utiliza mensajes SOAP (sobre HTTP) con documentos en XML.
  • OPC CD (Complex Data).- Permite a los servidores exponer y describir tipos de datos más complicados en forma de estructuras binarias y documentos XML.

Este estandar está siendo mantenido por la Fundación OPC. Hemos de mencionar que el Presidente de esta fundación es el Vicepresidente Tecnológico de Wondeware Invensys.

Interfaces de conexión de discos duros

Para terminar con la serie de entradas que hemos dedicado a los discos duros, y en concreto, a lo RAID de discos, veamos las alternativas que existen hoy en día para conectar este tipo de dispositivos a un PC:
  • IDE/ATA: Este interfaz paralelo es el clásico que se utiliza para la conexión de discos duros, lectores y grabadores de CD y DVD, etc. Se han utilizado diferentes versiones desde su aparición: desde la ATA1 hasta la ATA7 (la versión de ATA que soporta un sistema viene determinada por su chipset sur o su ICH, que es donde se encuentra el controlador ATA). Todas las versiones de ATA son compatibles con las anteriores. También para todas estas versiones, los sistemas incluyen dos controladores ATA, el primario y el secundario, y cada uno de ellos soporta la conexión de dos dispositivos: el Maestro (conectado directamente al controlador ATA) y el Esclavo (conectado al controlador ATA a través del dispositivo maestro). Por lo tanto, cuando se quiere crear un RAID de discos con este tipo de interfaz, lo que se suele hacer es pinchar una tarjeta RAID en el sistema (normalmente, a través del bus PCI), que incorpora los conectores IDE extra que se necesitan y el controlador hardware para el RAID.
  • SATA (Serial ATA): La última versión del interfaz IDE/ATA es el UltraDMA133 con una transferencia teórica de 133MBps. Un interfaz paralelo de estas características no puede aumentar mucho más la velocidad de transferencia debido a problemas con la temporización y a problemas de ruido e interferencia. Por eso ATA7 es la última versión paralela del interfaz ATA y se ha empezado a introducir la versión serie de este interfaz. Los controladores de SATA son compatibles con las versiones paralelas de ATA, pero los conectores y los cables son físicamente diferentes. Cada conector soporta a un único dispositivo, ya no se utiliza la conexión maestro-esclavo. La primera versión de SATA llega a los 150 MBps, SATA-2 ya ha subido hasta los 300 MBps, pero se espera conseguir en breve una tasa de transferencia de 600 MBps. En este caso, existen placas base que incorporan conectores SATA suficientes para la conexión de los discos duros del RAID y que también incorporan el controlador.
  • SCSI (Small Computer System Interface): Interfaz paralelo de alto rendimiento que permite la conexión de multitud de dispositivos: discos duros, lectores y grabadores de CD y DVD, escáners e impresoras, etc. Cada dispositivo tiene dos conectores, uno de entrada y otro de salida. El comienzo del bus se conecta con el PC a través de un adaptador (normalmente, una tarjeta PCI), y el último dispositivo incorpora un terminador para evitar reflexiones en el bus. Los dispositivos funcionan de manera independiente y pueden intercambiar datos entre sí o con el PC. Por lo tanto se trata de un interfaz que libera en gran medida al procesador de todas las tareas relacionadas con la E/S. Existen varias versiones de este interfaz (SCSI-1, SCSI-2, SCSI-3), llegando la última hasta tasas de transferencia de 640 MBps. Para conctar un RAID SCSI al PC sólo es necesaria una tarjeta con el controlador y con el conector para el primera disco.

El interfaz SCSI es una solución de alto rendimiento que normalmente no es adecuada para PC’s debido a su alto coste. Pero en el caso de servidores o sistemas con necesidades muy específicas, presenta una serie de ventajas frente al interfaz ATA tradicional:

  • Permite la conexión de un mayor número de dispositivos, que además suelen ser externos, por lo que aumenta su portabilidad.
  • Varios dispositivos SCSI pueden funcionar al mismo tiempo, lo que no es posible con el interfaz ATA.
  • Los dispositivos SCSI pueden poner en cola los comandos de E/S utilizados para realizar una transferencia, mientras que los dispositivos conectados con ATA deben recibirlos uno a uno.

Pero con la aparición de las placas que incorporan la posibilidad de conectar un RAID SATA directamente, este interfaz es el que se ha impuesto en los últimos tiempos, incluso por delante de SCSI en muchas ocasiones.

Manufacturing Lead Time (MLT)

Definimos Manufacturing Lead Time (MLT) como el tiempo total que transcurre desde que se genera la orden de fabricación hasta que el producto alcanza el estado de terminado o finalizado.
El MLT está formado por:
  • Queue Time: Tiempo de espera del producto hasta que se introduce en un Centro de Trabajo.
  • Setup Time: Tiempo de preparación del Centro de Trabajo.
  • Run Time: Tiempo de ejecución de la operación.
  • Wait Time: Tiempo que el producto espera hasta pasar a otro Centro de Trabajo.
  • Move Time: Tiempo de traslado entre Centros de Trabajo.
La reducción del MLT conlleva la reducción del Work In Process (WIP), es decir el inventario que se genera durante el proceso de fabricación de un producto.
Por tanto, si un empresa en capaz de reducir el MLT, disminuyendo cualquiera de sus componentes, podrá decrementar su WIP y de esta manera bajar sus costes de fabricación.

Existen múltiples técnicas para reducir el MLT. Quisieramos destacar que la implantación de sistemas de gestión de planta, ayudan a reducir el MLT, redundando positivamente sobre la cuenta de explotación de la compañía.

El mejor conocimiento de los Centros de Trabajo (información exacta y en tiempo real sobre producción generada, capacidad, tiempos disponibles, paradas...) permitirá la reducción de MLT. Concretamente:
  • El Setup Time se verá reducido.
  • El Runtime será continuo. Se evitarán paradas, averías.
  • Se tendrá un mejor conocimiento de la capacidad real del Centro de Trabajo. Este conocimiento permitirá ajustar los tiempos de espera y traslado.

Wonderware Spain. Presente & Futuro

Wonderware, empresa del grupo Invensys, líder mundial en sistemas estándar de gestión en tiempo real, tras más de 15 años de presencia en España mediante una delegación, ha dado una nuevo y definitivo paso de implantación y apuesta por nuestro país mediante el nacimiento de Wonderware Spain. Esta nueva empresa, que tendrá como Director General a Jordi Rey, crecerá tanto en recursos humanos como en espacio a la vez que mantendrá una relación directa y exclusiva con Wonderware (Grupo Invesys).

En esta nueva etapa Wonderware Spain cuenta con la alianza estratégica de Logitek, empresa que era su distribuidor en España, para penetrar de forma sólida y con soluciones globales e integrales en las necesidades del mercado industrial español. De esta forma Wonderware Spain incorpora el experto conocimiento de los profesionales de Logitek para ser más competitivos en la industria tecnológica. Esta ampliación de recursos requiere una nueva sede por eso se trasladará al Palau de Rubí.
Este acuerdo nace en un momento en que la industria española ha experimentado un gran crecimiento y necesita ser más competitiva. Para ello
Wonderware se ha marcado el objetivo de simplificar la relación con los clientes, focalizar las operaciones en un mercado muy potente como es hoy en día el español y optimizar los recursos de los que se dispone, todo ello para consolidar el liderazgo de Wonderware en España.
En esta nueva etapa Wonderware Spain busca consolidar su liderazgo en España a la vez que establece una relación más directa y sencilla con sus clientes. Para ello cuenta con un personal de 15 expertos distribuidos en los departamentos de ventas, marketing, formación y soporte técnico.
Este futuro se focalizará en tres aspectos, la comunidad de integradores de sistemas para potenciar sus actividades e incrementar el soporte técnico; el usuario final, potenciando nuestra posición como partner tecnológico y la creación de una comunidad de técnicos certificados a la vez que facilitamos su actualización tecnológica.
La facturación de Wonderware en España se ha doblado en los últimos cuatro años, siendo ésta ahora de unos cuatro millones y medio de euros en el 2007. En este sentido, la previsión para el futuro es continuar con esta línea ascendente y volver a doblar la actual facturación en los próximos tres años.

Contacto de prensa
Marta Benito (mbenito@strategycomm.net)
610.784.110

Link. MESA.org

Sin duda la página de referencia para conocer lo último en soluciones MES.
Sus apartados de noticias, Base de Datos del Conocimiento y Eventos, merecen ser visitados de forma asídua.
Wonderware Invensys, es Platinum Keystone Sponsor.

eXpert Solutions & Wonderware Spain

Desde primeros de marzo de 2008, Wonderware Spain cuenta con la unidad de eXpert Solutions, liderada por Albert Penya, para apoyar los procesos de venta de las soluciones Wonderware y realizar tareas de acompañamiento durante la puesta en marcha y desarrollo de los Proyectos.
Los clientes finales demandan cada vez más que el proveedor tecnológico se involucre en la realización de los proyectos. Wonderware cuenta con sus integradores para llevar a cabo los desarrollos que adecúan la tecnología que proporciona a las necesidades del cliente.
Según Albert Penya, el objetivo principal de la unidad es ACOMPAÑAR al Cliente Final y al Integrador en todo aquello que esté fuera del mero desarrollo, implantación y adecuación del software industrial.

La selección del Integrador más adecuado, la formación al cliente final, la revisión de arquitecturas software, la creación de Planes Directores que proporcionen visión estratégica a los clientes finales en lo que se refiere a Informática Industial o la creación de centros de competencia que permitan la reutilización óptima de la tecnología, son algunas de las actividades que eXpert Solutions proporciona.

Para más información:albert.penya@wonderware.es

Link. Navactiva

Xavier Cardeña, Director de la Unidad de Control Solutions del Grupo Logitek, nos recomienda esta página web y en especial un interesante artículo que describe la importancia de los sistemas de Trazabilidad en la Industria Alimentaria.

http://www.navactiva.com/web/es/acal/doc/articulos/2008/03/46077.php

Para más información:
xavier.cardena@logitek.es

Capacity Management

Definimos capacidad como la Cantidad de Trabajo que se puede hacer en un determinado periodo. La capacidad es una medida de trabajo realizado, no es el trabajo realizado.

Diferenciamos entre:

  • Capacidad Requerida: Capacidad que debe tener un sistema para producir un output deseado en un tiempo determinado. Carga (Load): Trabajo planificado para un sistema en un determinado periodo.

  • Capacidad Disponible: Capacidad real del sistema para producir una cantidad de producto en un determinado periodo.


Cuando la Capacidad Requerida es Mayor que la Capacidad Disponible se deben llevar a cabo Medidas que permitan Incrementar la Capacidad Disponible. Estas medidas se llevan a cabo a través de la "Gestión de la Capacidad" (Capacity Management).


Capacity Management es Establecer, Medir, Monitorizar y Ajustar Niveles de Capacidad para alcanzar los objetivos establecidos. (Ser capaces de que los centros de trabajo tengan la capacidad suficiente para ejecutar todas las órdenes planificadas).


Ejemplo:
1. Establecer Capacidad. 90.000.000 Items / Año.



2. Medir Capacidad.A través de un KPI. Rated Capacity: Available Time x Utilization x Efficiency
Definiendo "Standard Time" como el Tiempo dedicado por un Centro de Trabajo en realizar una determinada producción.

  • Available Time: Horas que un centro de trabajo puede ser usado.Ej: Cinco días, dos turnos, 8 horas = 120 Horas

  • Utilization: Horas realmente trabajadas / Available TimeEj: 100 / 120 x 100%= 83,3

  • Efficiency: Producción Real / Ratio Estándar de ProducciónEj: 90 / 100 x 100% = 90

  • Rated Capacity=120 x 0,83 x 0,90 = 89,64 Horas son las dedicadas en realizar 100 unidades.


3. Monitorizar Capacidad:Una vez conocida la Capacidad actual, analizaremos las causas por las que las líneas o sistemas tienen esta capacidad.De forma Exacta, en Tiempo Real, Fácilmente Comprensible.


4. Establecer/Ajustar Niveles: Planta, Línea o Sistema.

Niveles de RAID (II)

Para terminar con los niveles de RAID nos quedan los niveles 5 y 6:

  • RAID 5: Es como el RAID 4, pero la información de paridad ya no se almacena en un disco dedicado a esta función, sino que ser reparte entre todos los discos que componen el RAID. De esta manera se pueden realizar escrituras en paralelo porque en muchos casos ya no habrá conflictos al actualizar la paridad. Además, se evita el riesgo de que se produzcan fallos justo en el disco que almacena la paridad.
  • RAID 6: Añade técnicas de detección y corrección de errores P+Q, más complejas que la paridad simple de manera que se pueden corregir fallos de dos discos en lugar de uno solo. A cambio, la información de paridad ocupa más espacio.

De hecho, con RAID5, cinco discos proporcionan capacidad de cuatro, mientras que con RAID6, hacen falta seis discos para tener la capacidad de cuatro (es paridad bidimensional). Aunque a cambio se pueden corregir dos errores.

Ancho de banda de un bus

El ancho de banda de un bus es la cantidad de información que puede transferir por unidad de tiempo. Para calcular este valor, es necesario conocer tres aspectos:

  • La frecuencia de operación del bus.
  • El número y tipo de líneas de datos (cuidado, en los buses tradicionales además de estas líneas hay líneas de control para sincronización, arbitraje, etc, que no deben tenerse en cuenta).
  • El número de transferencias de información que pueden hacerse por ciclo de reloj.

Conocidos estos valores se puede calcular el ancho de banda como:






Por ejemplo, para calcular el ancho de banda del bus PCI, necesitamos saber que su frecuencia de funcionamiento es de 33 MHz, que tiene 32 líneas de datos y que realiza 1 transferencia de información por ciclo de reloj. Por lo tanto, su ancho de banda es de 132 MB/s.


Si tomamos como ejemplo el bus PCI Express x16, en este caso tenemos una frecuencia de 2.5 GHz, tiene 16 líneas de datos full-duplex (es decir, pueden transmitir inofrmación en ambos sentidos al mismo tiempo) y realiza 0.8 transferencias por ciclo (es decir, en un ciclo de reloj no le da tiempo a realizar una transferencia de información completa). Entonces, el ancho de banda en este caso es de 4 GB/s en cada sentido, gracias a la utilización de líneas full-duplex (8 GB/s en total).


El porqué de esta dieferencia abismal en los anchos de banda de ambos buses, en otra entrada que dejamos para el futuro. Una pista: las limitaciones en el ancho de banda de los buses suelen estar relacionadas con su longitud, el número de dispositivos conectados, el ruido y la disipación de calor.

Niveles de RAID (I)

Estos son los primeros niveles de RAID:

  • RAID 0: Se utiliza sólo stripping, es decir, se reparte la información entre los discos duros que componen el RAID. Una ventaja de este nivel es que para el sistema operativo todos los discos duros que componen el RAID aparecen como un único disco duro de capacidad la suma de todos ellos, y se facilita enormemente gestión. La desventaja es que no hay tolerancia a fallos.
  • RAID 1: Es la solución que proporciona tolerancia a fallos al RAID0, ya que la mitad de los discos se utilizan como discos espejo de la otra mitad. La desventaja es que resulta una solución muy cara debido a la gran redundancia (se consumen el doble de discos de los necesarios).
  • RAID 3: Para reducir el coste del RAID 1, se utiliza otra solución que proporcione tolerancia a fallos al RAID0 sin necesidad de duplicar el número de discos. Simplemente se utiliza un disco duro extra para almacenar información de paridad. La desventaja es que cada vez que se hace una escritura en un disco, hay que leer todos los demás para calcular la paridad y al disco de paridad para escribirla.
  • RAID 4: Para superar este inconveniente se aprovecha que no es necesario leer los discos que no se han modificado, para calcular la nueva paridad basta con su antiguo valor y con los valores que se han modificado.
El RAID 2 introdujo la información de paridad, funcionando de manera muy parecida al ECC de las memorias actuales. Pero se necesitaban demasiados discos para almacenar la información de paridad. Por eso se pasó rápidamente al RAID 3, que utiliza código de Hamming y sólo consume un disco para paridad (como el RAID 4).

La diferencia principal entre el RAID 3 y el 4 está en la granularidad de la información que se reparte en los discos: en el 3 es de bit (fina) y en el 4 es de bloque (gruesa). Por eso el proceso necesario para mantener la paridad con Hamming es diferente. En un RAID 3 un acceso a disco involucra a todos los demás, en un RAID 4 con un poco de suerte sólo a uno de los discos.



La ley de Amdhal y la mejora de rendimiento

Esta ley se utiliza en Informática para calcular las expectativas de mejora global que se pueden tener al mejorar sólo una parte del sistema. Si F es la fracción de tiempo que se puede utilizar la mejora y G es el factor de ganancia que se obtiene en la parte del sistema que se modifica, según la ley de Amdhal, la mejora global en el sistema o speedup (S) será como mucho:



Entonces, si por ejemplo en un servidor de base de datos se emplea el procesador el 20% del tiempo y el disco duro el 80% restante. ¿Qué nos reportará una mayor mejora: cambiar el procesador por uno 5 veces más rápido o el disco duro por uno el doble más rápido?. En el caso del procesador, F=0.2 y G=5, así que la mejora global en el sistema sería 1.19. En el caso del disco duro, tenemos F=0.8 y G=2, así que S=1.66. Por lo tanto la mejora del disco duro sería más interesante.

Además, si se quiere estudiar el problema desde un punto de vista coste/prestaciones, para realizar esta mejora en el disco duro como mucho deberíamos invertir un 66% del coste total del sistema, ya que como mucho mejoraremos el rendimiento en un 66%.

La aplicación de la ley de Amdhal en cualquier entorno se puede resumir en una recomendación muy sencilla: esfuérzate siempre por mejorar el caso más común.


Productividad Industrial y Estrategia

Podemos definir Productividad como la resultante equilibrada entre cantidad, calidad y coste de laproducción obtenida.

Cinco son los factores básicos que intervienen en la operación industrial y que deben tenerse en cuenta a la hora de abordar procesos de mejora de la Productividad Industrial:

---------------------------------------------------------------------------
Productos / Procesos / Instalaciones / Sistemas / Personas

---------------------------------------------------------------------------

¿Por qué la mejora de la productividad industrial está estrechamente ligada a la obtención de una ventaja competitiva?
  • Porque determina el coste industrial y la calidad de los productos.
  • Porque determina el máximo nivel de eficiencia de la industria frente a competidores.
  • Por la alta preocupación por los costes de producción y por la necesidad de conocer el estado de los mismos.
  • Porque la mayor parte del coste del producto en la industria alimentaria se localizan en el área industrial.
  • Por la reducción de márgenes operativos por contención de precios impuesta por Sector Distribución.
  • Por la necesidad de buscar yacimientos internos de mejora y reducción del gasto: “Mirar a la Planta”.
  • Porque la planta debe considerarse como una Unidad Empresarial de Gestión: es decir, debe considerarase estratégica.
  • Porque la mejora de la Productividad Industrial tiene una repercusión directa sobre la Cuenta de Resultados.
  • Porque la mejora de la Productividad repercute positivamente en costes, cantidades, plazos, calidades de productos.
Cada vez más, la Productividad es incluida como Factor Clave de Planificación Estratégica.

Arquitecturas cliente/servidor

La arquitectura cliente/servidor es un modelo para el desarrollo de redes de computadores en el que cualquier intercambio de información (que se suelen denominar transacciones) se divide en elementos independientes que cooperan entre sí para intercambiar información, servicios o recursos.

En esta arquitectura el computador de cada uno de los usuarios, llamado cliente, inicia un proceso de diálogo: produce una demanda de información o solicita recursos. El computador que responde a la demanda del cliente, se conoce como servidor. Bajo este modelo cada usuario tiene la libertad de dirigirse a cualquier servidor que le ofrezca sus servicios y los distintos servidores también pueden intercambiar información entre sí.

Los clientes y los servidores pueden estar conectados a una LAN o a una WAN. Este tipo de arquitectura no forma parte de los protocolos de Internet como IP, TCP o UDP, sin embargo todos los estándares propuestos en Internet funcionan según este modelo.

Entre las principales características de la arquitectura cliente/servidor, se pueden destacar las siguientes:

  • El servidor presenta a todos sus clientes una interfaz única y bien definida.
  • El cliente no necesita conocer la lógica del servidor, sólo su interfaz externa.
  • El cliente no depende de la ubicación física del servidor, ni del tipo de equipo físico en el que se encuentra, ni de su sistema operativo.
  • Los cambios en el servidor implican pocos o ningún cambio en el cliente.

Los componentes básicos en una arquitectura cliente/servidor son el cliente, el servidor y la infraestructura de comunicaciones (middleware).

El cliente permite al usuario solicitar servicios, realizar peticiones de información o demandar el uso de recursos. Se encarga básicamente de la presentación de la información al usuario. Por lo tanto es necesario que se encargue de establecer conexión con el servidor, enviar la petición, recibir la respuesta, detectar y corregir los posibles errores y realizar actividades de sincronización y seguridad. Y todo esto con uno o varios servidores.

Los clientes se suelen situar en PC's o en estaciones de trabajo y se encargan de realizar el ‘front end’, que es la parte de la aplicación que interactúa con el usuario.

Por otro lado tenemos al servidor, la entidad física que provee servicios, devuelve resultados, ejecuta el procesamiento de datos o aplicaciones o gestiona la información y los recursos compartidos.

En el servidor se realiza el ‘back end’, que es la parte destinada a recibir las solicitudes de los clientes. Entonces tiene que encargarse de recibir las solicitudes del cliente, verificar su identidad, realizar las tareas solicitadas, generar una respuesta y enviarla al cliente. Además, debe detectar y solucionar los interbloqueos, los fallos y otros aspectos relacionados con la seguridad. Por todas estas razones la plataforma hardware de los servidores suele ser mucho más potente que la de los clientes. Se utilizan PC’s o estaciones de trabajo muy modernos o sistemas más complejos.

Existen diversos servidores que se clasifican basándose en sus funciones. Son denominados servidores dedicados ya que administran el uso de algún recurso en particular, por ejemplo:

  • Servidor de archivos.
  • Servidor de bases de datos.
  • Servidor de transacciones.
  • Servidor de Web.
  • Servidor de correo electrónico.
  • Servidor de impresoras.

En todos los casos el trabajo del servidor es reactivo, es decir, realiza una acción siempre basándose en una petición previa.

Para que los clientes y servidores puedan comunicarse es imprescindible una infraestructura lógica que proporcione los mecanismos básicos de direccionamiento y transporte. Esta infraestructura es el middleware, y es un módulo intermedio que no pertenece ni al servidor, ni a la red, ni al cliente. El middleware es un interfaz lógico para los servicios de red. Sus funciones son:

  • Independizar las dos entidades: El cliente y el servidor no necesitan saber comunicarse entre ellos, sino cómo comunicarse con el middleware.
  • Traducir la información de una aplicación y pasarla a la otra: Acepta consultas y datos recuperándolos de la aplicación cliente, los transmite y envía la respuesta desde el servidor regreso. También se encarga de la detección de errores.
  • Controlar las comunicaciones: Proporciona fiabilidad, transparencia y administración.

En resumen, todos los sistemas desarrollados en arquitectura cliente/servidor poseen las siguientes características:

  • El servidor es un proveedor de servicios y el cliente, por el contrario, es un consumidor.
  • Un servidor puede atender a muchos clientes al mismo tiempo y regular su acceso a recursos compartidos.
  • La relación entre cliente y servidor es de muchos a uno. Además los clientes solicitan servicios, mientras que la actitud de los servidores suele ser pasiva: esperan las solicitudes de los clientes.
  • El software cliente/servidor siempre oculta a los clientes la ubicación el servidor.
  • El software es independiente del hardware y se pueden tener las mismas o diferentes plataformas en los clientes y los servidores.
  • Los servidores pueden ser sustituidos sin afectar a los clientes, siempre y cuando la interfaz para recibir peticiones y ofrecer servicios no cambie.
  • Los sistemas cliente/servidor pueden escalarse horizontal o verticalmente. Es decir, se pueden añadir o eliminar clientes (con apenas un ligero impacto en el rendimiento del sistema) o bien, se puede cambiar a un servidor más grande o a servidores múltiples.
  • El código y los datos del servidor se conservan centralmente, esto implica menor costo de mantenimiento y además facilita la protección de la integridad de los datos compartidos. Además, los clientes mantienen su individualidad e independencia.

Según todo esto la arquitectura cliente/servidor es versátil, modular, flexible, y escalable. Además fomenta la variedad de plataformas, hardware y software dentro de las redes, y esto es muy importante hoy en día. Este tipo de arquitecturas mejora el aprovechamiento de los sistemas gracias a la compartición de todo tipo de recursos y también mejora el rendimiento de la red porque se elimina la necesidad de mover grandes bloques de información por la red hacia los nodos: los servidores controlan los datos, procesan peticiones y después transfieren sólo los datos requeridos a la máquina cliente.

En cuanto a las desventajas, son sistemas de gran complejidad puesto que es necesario integrar una gran variedad de productos y tecnologías diferentes. Además el mantenimiento puede hacerse complicado y es más difícil asegurar un alto grado de seguridad en la red. Por último, los problemas de congestión en la red pueden resultar críticos, puesto que un servidor puede dejar de atender por estos problemas a un gran número de peticiones de diferentes clientes.