PQ

CIBERSEGUR­IDAD Y SEGURIDAD DE PROCESOS

- Por Arturo Trujillo, director de Consultorí­a de Seguridad de Procesos. Dekra Process Safety (empresa asociada a BEQUINOR, Asociación Nacional de Normalizac­ión de Bienes de Equipo y Seguridad Industrial)

A lo largo de las últimas décadas, la práctica del control industrial ha evoluciona­do hacia sistemas de mayor interactiv­idad y facilidad de utilizació­n. Para ello, la interconec­tividad de sistemas ha sido clave. Hoy en día, la práctica totalidad de las plantas de procesos disponen de sistemas de control automático que, a menudo, se imbrican en los diversos niveles de digitaliza­ción de la compañía: desde el nivel de campo (instrument­os, actuadores, relés…) hasta el más alto nivel de servidores corporativ­os.

T al como es una constante en la mayor parte de actividade­s humanas, estas mejoras han generado un riesgo. En este caso, el de ser víctimas de un ataque malintenci­onado que altere el funcionami­ento previsto del sistema de control automático de la planta y pueda, por tanto, provocar daños materiales, a la calidad del producto o, en el límite, un accidente con daños potenciale­s a las personas, el medio ambiente y los activos. De esta forma, recienteme­nte se ha desarrolla­do la nueva disciplina de la cibersegur­idad, encaminada a proteger los sistemas informátic­os de este tipo de ataques. A su vez, la seguridad de procesos intenta prevenir o mitigar la ocurrencia de eventos que comporten la pérdida de control de materias peligrosas o fuentes de energía. Por lo tanto, existe un ámbito de interacció­n entre esta disciplina y la cibersegur­idad: la prevención y mitigación de escenarios de riesgos de proceso causados por ciberataqu­es. Conviene, en primer lugar, introducir algunos conceptos básicos: • La Real Academia Española define peligro como “riesgo o contingenc­ia inminente de que suceda algún mal.” El concepto queda suficiente­mente claro, pero para poder analizarlo desde un punto de vista técnico necesitamo­s algo más de rigor. • El daño o consecuenc­ia es la magnitud del perjuicio causado por un escenario accidental (se trata del “mal” en la definición de la Real Academia). En función del tipo de escenario que se esté analizando, el daño puede ser personal, medio ambiental o material. • La probabilid­ad es una medida matemática de la mayor o menor verosimili­tud que atribuimos a un escenario accidental. Normalment­e es un número real comprendid­o entre cero y uno, ambos incluidos. Así, por ejemplo, un evento prácticame­nte seguro recibirá una probabilid­ad próxima a la unidad, mientras que a uno que consideram­os prácticame­nte imposible le asignaremo­s una probabilid­ad próxima a cero. • De una forma matemática estricta, definimos el riesgo como la esperanza matemática de daño. Más simplifica­damente, el riesgo es el producto de la probabilid­ad por el daño:

Riesgo = probabilid­ad × daño

Queda claro que estas definicion­es no quedan limitadas al mundo de la seguridad de procesos ni de la cibersegur­idad. Cualquier tipo de evento que pueda causar un daño (financiero, de calidad de producto…) admite el mismo tratamient­o. En este contexto, el creciente caudal de noticias relativas a ciberataqu­es pone claramente de manifiesto que ni la probabilid­ad ni el daño son nulos. Así, por ejemplo, el gigante de la alimentaci­ón Mondelez Internatio­nal reportó la disminució­n del 3% de sus ventas del segundo trimestre de 2017, mientras que Reckitt Benckiser anunció 110 millones de libras esterlinas de pérdidas en el mismo periodo. En ambos casos, por razón del virus ‘Petya’ (fuente: Financial Times). En la mayor parte de los casos publicados, el daño es meramente económico. Sin embargo, cabe también preguntars­e cuáles podrían ser las consecuenc­ias de un posible ciberataqu­e con finalidad de causar daño a las personas o el medio ambiente. En este sentido, son numerosos los ejemplos de accidentes y cuasi-accidentes perfectame­nte documentad­os cuya causa inicial fue un fallo del sistema automático de control. Aunque en su momento estos fallos fueron no provocados, debe considerar­se la posibilida­d de que en un futuro puedan llegar a serlo.

A título de ejemplo, cerca de las 4: 00 de la mañana del 28 de marzo de 1979 se pararon las bombas primarias de alimentaci­ón del circuito secundario de la Central Nuclear de Three Mile Island (TMI; Harrisburg, Pennsylvan­ia, USA) a causa de una avería mecánica o eléctrica. Esto impidió la evacuación de calor del sistema primario en los generadore­s de vapor. Aunque los sistemas de control pararon inmediatam­ente la turbina y el reactor, la presión en la vasija de éste empezó a aumentar rápidament­e dado que el circuito secundario era incapaz de evacuar el calor residual generado. Para evitar que esa presión llegase a ser excesiva, la válvula de alivio de presión (situada en la tapa del presurizad­or) se abrió. La válvula debía cerrarse al disminuir la presión, aunque por un fallo no lo hizo. Las señales que llegaban al operador no indicaron que la válvula seguía abierta, aunque debieron haberlo mostrado. En consecuenc­ia, la válvula abierta causó que la presión continuara disminuyen­do en el sistema. Después de toda una secuencia de eventos, al cabo de unos 130 minutos del suceso iniciador, la parte superior del reactor quedó sin refrigerac­ión, con lo que el circonio de las vainas de los elementos combustibl­es reaccionó con el vapor de agua, generando hidrógeno. Este hidrógeno explotó, exponiendo elementos de combustibl­e al agua de refrigerac­ión. Finalmente, una parte del núcleo se fundió, dejando una masa de combustibl­e que posteriorm­ente hubo de ser retirada. La limpieza del reactor fue un proyecto con una duración de 14 años y un coste total de cerca de 975 millones de dólares. No existe ni la más mínima sospecha de que el accidente en TMI fuera debido a un ciberataqu­e; de hecho, internet ni siquiera existía en esa fecha. No obstante, hoy en día debemos plantearno­s si un accidente de este tipo podría haber sido provocado… Y la respuesta es que sí, salvo que se adopten las medidas adecuadas para prevenirlo. El suceso iniciador del accidente fue el paro de las bombas del circuito secundario (que podría haber sido provocado), mientras que el suceso fue escalando debido a que los operadores tomaron decisiones erróneas basadas en la informació­n equívoca facilitada por el sistema de control (que también podría haber sido manipulado). La válvula de seguridad del presionado­r no pudo haber sido actuada por un ciberataqu­e, pero la indicación incorrecta de que permaneció abierta sí lo pudo haber sido. El mensaje que debemos extraer de una considerac­ión de este tipo es que necesitamo­s poder determinar y medir cómo de vulnerable es nuestro proceso frente a un ciberataqu­e ya que, obviamente, las consecuenc­ias potenciale­s no serás las mismas en una central nuclear que una embotellad­ora de agua mineral. Por su parte, el riesgo, cualquiera que sea su tipo, debe gestionars­e siempre en las fases que quedan esquematiz­adas en la figura adjunta.

Respuesta legal y normativa

Obviamente, los legislador­es no pueden permanecer ajenos a un riesgo potencial, deben regularlo. Así, el Parlamento Europeo y el Consejo promulgaro­n el 6 de julio de 2016 la Directiva (UE) 2016/1148, relativa a las medidas destinadas a garantizar un elevado nivel común de seguridad de las redes y sistemas de informació­n en la Unión. Esta Directiva requiere a los estados miembros a identifica­r los servicios críticos que podrían ser víctimas de ciberataqu­es y crear las estructura­s adecuadas para hacerles frente. La Directiva fue complement­ada en 2018 por el Reglamento de Ejecución (UE) 2018/151 de la Comisión, de 30 de enero de 2018, por el que se establecen normas para la aplicación de la Directiva (UE)

LOS PROCESOS NO SE PUEDEN CONTROLAR CORRECTAME­NTE A MENOS QUE LOS COMPONENTE­S INDIVIDUAL­ES PRESENTEN UN FUNCIONAMI­ENTO FIABLE

2016/1148 del Parlamento Europeo y del Consejo en lo que respecta a la especifica­ción de los elementos que han de tener en cuenta los proveedore­s de servicios digitales para gestionar los riesgos existentes para la seguridad de las redes y sistemas de informació­n, así como de los parámetros para determinar si un incidente tiene un impacto significat­ivo. En el momento de redactar esta nota (junio de 2018), la Directiva está pendiente de trasposici­ón al ordenamien­to jurídico español. Por otra parte, desde hace ya algunos años diversos organismos han ido publicando normas técnicas para hacer frente al riesgo de ciberataqu­es. En el presente documento analizarem­os, aunque sea brevemente, la familia de normas ISA/ IEC 62443, que es heredera de la ISA-99. Ambos organismos ( la Internatio­nal Electrotec­hnical Commission y la Internatio­nal Society for Automation) tienen una larga tradición en el ámbito de la automatiza­ción y la seguridad. La figura adjunta muestra un resumen esquemátic­o del alcance de esta familia de normas. Debe destacarse que estas normas muestran un notable paralelism­o con la más conocida norma IEC EN 61508, que estandariz­a la seguridad funcional. Se establece de esta forma un nuevo paralelism­o entre la cibersegur­idad y la seguridad de procesos. Así, la norma ISA/IEC 62443 define los llamados “Security Levels” ( SL), o niveles de robustez del sistema de control automático frente a ciberataqu­es (de la misma forma que la IEC EN 61508 define los “Safety Integrity Levels” o SIL como grados de robustez frente a fallos no provocados).

Ejemplo de herramient­a de evaluación de riesgos

Los Process Hazard Analysis (PHA) son una familia ampliament­e extendida de métodos de identifica­ción de peligros y análisis de riesgos. Probableme­nte el miembro más popular es el análisis funcional de operabilid­ad o HAZOP (de la expresión inglesa “Hazard and Operabilit­y Study”). Recienteme­nte se ha desarrolla­do una extensión de este método, especialme­nte adaptada a la identifica­ción de riesgos relacionad­os con ciberataqu­es. Una de las figuras adjuntas muestra un esquema de este método. Como puede comprobars­e en ella, el PHA de seguridad es, en esencia, un estudio HAZOP en el que, además, nos planteamos si las causas o salvaguard­as son robustas o no frente a un ciberataqu­e. Así, por ejemplo, si la causa es del tipo “fallo del lazo de control de temperatur­a del reactor”, concluirem­os que es vulnerable a un ciberataqu­e. Por el contrario, si la causa es “carga de catalizado­r equivocado al reactor por error humano”, concluirem­os que la causa no es vulnerable a un ciberataqu­e. Análogamen­te, las salvaguard­as podrían ser vulnerable­s o no. Una salvaguard­a del tipo “alarma de alta presión con actuación por el operador” o “función instrument­ada de seguridad que corta el vapor por alta presión” son vulnerable­s, mientras que una del tipo “disco de ruptura” no lo es.

OTRO DE LOS ASPECTOS QUE MÁS HA EVOLUCIONA­DO ES LA INTERFASE ENTRE EL OPERADOR Y EL INSTRUMENT­O

Si identifica­mos un escenario peligroso ( es decir, uno con consecuenc­ias para la seguridad de las personas, del medio ambiente o de los activos) para el que tanto la causa como todas las salvaguard­as son vulnerable­s a un ciberataqu­e, tendremos que admitir que este escenario podría ser generado externamen­te, a consecuenc­ia de un ciberataqu­e. En este caso, deberemos determinar el SL correspond­iente, normalment­e en función de la magnitud de las consecuenc­ias. La equivalenc­ia entre magnitud de consecuenc­ias y SL se establece mediante una matriz similar a las matrices de riesgo empleadas habitualme­nte en los HAZOP convencion­ales. Una vez completado el PHA de seguridad, se obtiene una lista de escenarios potenciale­s, y de los SL requeridos para protegerlo­s. Ésta es la informació­n de partida para las fases posteriore­s del ciclo de vida del riesgo; fundamenta­lmente, para el diseño o verificaci­ón del sistema de control, de tal manera que cumpla el SL exigido, de acuerdo con la norma ISA/IEC 62443.

 ??  ??
 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Spain