Subido por Javier Vivas

357100921-00-cenace2014-pdf

Anuncio
Enero 2014
Revista Técnica
Edición No. 10
(ISSN 1390 – 5074)
TÍTULO
SISTEMAS ELÉCTRICOS DE POTENCIA
DETERMINACIÓN DE LOS LÍMITES DE ESTABILIDAD ESTÁTICA DE ÁNGULO DEL SNI...................
LA GENERACIÓN DISTRIBUIDA: RETOS FRENTE AL MARCO LEGAL DEL MERCADO ELÉCTRICO
ECUATORIANO........................................................................................................................................
IDENTIFICACIÓN DE FALLAS CRÍTICAS EN EL SNI Y DISEÑO DE UN ESQUEMA PROTECCIÓN
SISTÉMICA...............................................................................................................................................
OPTIMIZACIÓN DE LA OPERACIÓN DE LAS UNIDADES DE LA CENTRAL MAZAR EN FUNCIÓN
DE LA CABEZA NETA.................................................................................................................................
ANÁLISIS PARA EL INICIO DEL RESTABLECIMIENTO DE LA ZONA 4 DEL SNI POSTERIOR A UN
BLACK OUT CON EL ARRANQUE EN NEGRO DE LAS UNIDADES DE LA CENTRAL MAZAR.........
EFICIENCIA ENERGÉTICA
DISEÑO Y CONSTRUCCIÓN DE UN EQUIPO PARA SEGUIMIENTO SOLAR AUTOMÁTICO E
IMPLANTACIÓN DE UN SOFTWARE DE SUPERVISIÓN PARA UN SISTEMA MÓVIL
FOTOVOLTAICO......................................................................................................................................
GENERACIÓN EÓLICA EN ECUADOR: ANÁLISIS DEL ENTORNO Y PERSPECTIVAS DE
DESARROLLO.........................................................................................................................................
ANÁLISIS DE FACTIBILIDAD PARA LA IMPLEMENTACIÓN DE LA GESTIÓN DE LA DEMANDA DEL
SECTOR INDUSTRIAL............................................................................................................................
ANÁLISIS DE PARÁMETROS TÉCNICOS EN EFICIENCIA DE ILUMINACIÓN PARA EL EDIFICIO
MATRIZ DE LA EMPRESA ELÉCTRICA REGIONAL CENTRO SUR.....................................................
TECNOLOGÍA E INNOVACIÓN
EVALUACIÓN DE LA VULNERABILIDAD DEL SISTEMA ELÉCTRICO DE POTENCIA EN TIEMPO
REAL USANDO TECNOLOGÍA DE MEDICIÓN SINCROFASORIAL......................................................
INCORPORACIÓN DE DISPOSITIVOS FACTS EN EL SNI.......................................................................
FORMULACIÓN DE UNA ARQUITECTURA TÉCNICA Y FUNCIONAL Y EL DESPLIEGUE DE UNA
PRUEBA DE CONCEPTO PARA MEJORAR LA SUPERVISIÓN, OPERACIÓN Y ANÁLISIS POST OPERATIVO DEL SNI..............................................................................................................................
INFORMACIÓN OPERATIVA EN DISPOSITIVOS MÓVILES.....................................................................
ANÁLISIS
DE
ESTABILIDAD
DE
PEQUEÑA
SEÑAL
UTILIZANDO
MEDICIONES
SINCROFASORIALES – PMU.................................................................................................................
ARQUITECTURAS DE RED LAN PARA LA AUTOMATIZACIÓN DE SUBESTACIONES, BASADAS EN
LA NORMA IEC 61850 (RSTP Y PRP).....................................................................................................
OPERACIÓN REMOTA DE LA DISTRIBUCIÓN BASADA EN LA SUPERVISIÓN Y CONTROL
REMOTOS DE RECONECTADORES.....................................................................................................
DISEÑO E IMPLEMENTACIÓN DEL SISTEMA DE CONTROL DE UN INVERSOR MULTINIVEL DE
FUENTES INDEPENDIENTES, POR MEDIO DE MODULACIÓN VECTORIAL ESPACIAL..................
ESTUDIO DE COORDINACIÓN DE PROTECCIONES POR MÉTODOS COMPUTACIONALES
APLICADOS A UNA SUBESTACIÓN.......................................................................................................
BREAKER DC BASADO EN CONVERTIDORES CONTROLADO POR MODOS DESLIZANTES...........
DISEÑO E IMPLEMENTACIÓN DE UN REGISTRADOR DE DISTURBIOS DE FRECUENCIA PARA
ANÁLISIS DINÁMICO DE SISTEMAS ELÉCTRICOS DE POTENCIA....................................................
MONITOREO DE LAS OSCILACIONES DE BAJA FRECUENCIA DEL SNI A PARTIR DE LOS
REGISTROS EN TIEMPO REAL.............................................................................................................
ANÁLISIS DEL SISTEMA DE ALARMAS DEL EMS DEL CENACE...........................................................
MARCO DE REFERENCIA PARA LA FORMULACIÓN DE UN PLAN DE CONTINUIDAD DE
NEGOCIO PARA TI, UN CASO DE ESTUDIO.........................................................................................
FORMULACIÓN DE UN MARCO DE CONVERGENCIA IT/OT..................................................................
AUTOR
Pág.
Dr. Jaime Cepeda – Ing. Pablo Verdugo
5
Ing. Fernando Durán
13
Ing. Verónica Flores - Ing. Javier Iza
28
Ing. Vicente Llivichuzhca - Ing. José GallardoIng.
35
Ing. Miguel Maldonado - Ing. Vicente Llivichuzhca
43
Ing. Javier Almeida – Ing. Paúl Ayala
49
Ing. Antonio Barragán
58
Ing. Pablo Méndez
67
Ing. Fernando Durán – Ing. Miguel Dávila
83
Dr. Jaime Cepeda – Dra. Delia Colomé
Ing. Fernando Chamorro - Ing. Pablo Verdugo
91
102
Ing. Juan Vallecilla – Ing. Hugo Ortiz
Ing. Carlos Del Hierro - Ing Roberto Sánchez
108
Ing. Ángela Quinaluiza – Ing. Diego Echeverría
123
Ing. Ana Zurita - Ing. Gioconda Rodríguez
133
Ing. Carlos Landázuri
142
Ing. Juan Galarza – Ing. Fausto Quizhpi
151
Ing. Cindy Palacios
Ing. Juan Valladolid – Ing. Pedro Navarrete
159
167
Ing. Miguel Dávila – Ing. Carlos Landázuri
173
Dr. Jaime Cepeda – Ing. Aharon De La Torre
Ing. Wilmer Gamboa – Ing. Christian Erazo
181
Ing. Marco Bautista
Ing. Germán Pancho – Ing. Fernanda Galarza
200
117
191
208
La Revista Técnica “energía” de la Corporación CENACE, es publicada anualmente y su distribución no tiene
costo alguno para las Empresas, las Instituciones Nacionales e Internacionales vinculadas al Sector Eléctrico,
Colegios Profesionales e Institutos de Educación Superior.
Se ha constituido en el medio para compartir criterios, experiencias técnicas y difundir los Artículos que son de
responsabilidad de sus Autores; y, no necesariamente corresponden a aquellos sostenidos por el CENACE.
DIRECTOR EDITORIAL
Gabriel Argüello
CONSEJO EDITORIAL
Ing. José Medina R.
Ing. Michelle Nieto
Ing. Sonia Peña
Ing. Paulina Vásquez
Ing. Hermógenes Flores
Ing. Eduardo Colmachi
Ing. Gustavo Araque
Ing. Vicente Quizanga
Srta. Katherine Correa
GRUPO TÉCNICO DE EVALUACIÓN DE TRABAJOS
Ing. Luis Tapia
Ing. Marco Valencia
Ing. Edgar Muela
Ing. Raul Moreno
Ing. Freddy Campoverde
Ing. Marco Tulio Aguilar
Ing. Verónica Quintanar
Ing. Erick Zbinden
Ing. Pablo Mendez
Ing, Jorge Luis Rojas
Ing. Julio Cesar Zambrano
Ing. Diego Chacon
Ing. Mauricio Samper
Dr. Andres Rosales
Ing. Paul Ayala
Ing. Victor Hugo Hinojosa
Edición No. 10
Enero 2014
Evaluación: Cada trabajo técnico fue evaluado por dos profesionales, nacionales y extranjerosque pertenecen a
reconocidas instituciones educativas, instituciones públicas y privadas del sector eléctrico. La selección de los trabajos a ser
publicados se basó en el promedio de las dos calificaciones enviadas por los evaluadores y que superó la referencia
adoptada de 70/100.
EDITORIAL
energía,
la
revista
técnica de la Corporación
CENACE apareció en
su primera versión, en
enero de 2005, como un
esfuerzo institucional para
difundir, los diferentes
análisis,
aplicaciones
e
investigaciones
de
la ingeniería para la
administración
técnica
y comercial del Sistema Nacional Interconectado del
Ecuador. Ésta edición, la décima, constituye un hito
especial en la vida de la Corporación.
energía, registra la historia científica y analítica de
la actividad de CENACE en éstos últimos diez años,
a la cual se han adherido aportes de ingenieros de las
Empresas del Sector Eléctrico y de la Academia.
Efectivamente, con la interconexión con Colombia
en marzo del 2003, aparecieron nuevos retos técnicos
a ser enfrentados y a ser resueltos, lo que demandó
la incorporación de tecnologías en el campo de
planeamiento operativo energético, estudios eléctricos
en estado dinámico, el control automático de generación
y del intercambio, protecciones sistémicas, etc. Esa
experiencia ha quedado registrada en artículos técnicos
de la revista energía a lo largo de estos años.
CENACE enfrenta en el cercano futuro nuevos retos
caracterizados por el manejo de una matriz de generación
predominantemente hidroeléctrica, así como la inclusión
de las energías renovables eólica y la solar. En el lado
de la demanda se trabaja en eficiencia energética, la
inclusión de las cocinas de inducción, la generación
distribuida; lo que en conjunto configura un escenario
altamente aleatorio en la cadena generación-demanda, lo
que exige la incorporación de nuevas técnicas de gestión
y control.
En este contexto, las oportunidades para mejorar
la calidad y seguridad del suministro se basan en la
incorporación de nuevas tecnologías en medición,
comunicaciones, control y electrónica de potencia. Hay
necesidad de disponer mayor visibilidad del estado
instantáneo del sistema de potencia, para monitorear
el movimiento del sistema y mantenerlo dentro de
zonas seguras. La red WAM que procesa mediciones
provenientes de 22 unidades de medición fasorial, PMUs,
instaladas en el Sistema Nacional Interconectado, es una
realidad en el país a la vez que es un evento histórico de
incorporación de alta tecnología. La puesta en operación
de un sistema computarizado de protección sistémica
en este año y la de FACTS en los próximos años,
configurarán una red con mayor resiliencia, más segura y
eficiente, para lo cual se requiere técnicas avanzadas para
supervisión y control.
El sistema de potencia cambió, el paradigma del flujo
unidireccional de la generación a la carga ya no existe,
el determinismo de corto plazo ya no existe, la sociedad
es más exigente del servicio, la construcción de redes de
transmisión se hace cada vez más restrictiva, se considera
la huella de carbono, existen nuevos protagonistas o
grupos de interés.
Si aceptamos que el mundo y el sistema de potencia
cambiaron, los que integramos el sector eléctrico debemos
cambiar más rápido para adaptar nuestra acción al nuevo
entorno. Los países y las instituciones exitosas son las
que pueden mantener el vertiginoso ritmo del desarrollo
tecnológico de la era actual, para atender eficientemente
a la sociedad.
En esta entrega, la edición No. 10, de la revista energía,
se introducen varios temas que van hacia este nuevo
entorno energético y eléctrico y vemos con beneplácito
el avance que progresivamente va teniendo la ingeniería
nacional.
Felicitaciones a quienes hicieron posible estos diez
años de luz y de esperanza.
GABRIEL ARGÜELLO RÍOS
Director Ejecutivo
La Revista Técnica “energía” ha sido evaluada y aceptada
para formar parte de las bases de datos de “EBSCO
Information Services”, información que se puede acceder en el
portal http://www.ebscohost.com/.
ICONTEC
Miembro de la Organización Internacional ISO
Certificó que el Sistema de Calidad de la
CORPORACIÓN
CENTRO NACIONAL DE CONTROL DE ENERGÍA
CENACE
fue evaluado y aprobado
con respecto a la Norma Internacional ISO 9001,
el 24 de septiembre de 2003 - Certificado No. 1694-1
Determinación de los Límites de Estabilidad Estática de Ángulo del Sistema
Nacional Interconectado
J. C. Cepeda
P. X. Verdugo
Centro Nacional de Control de Energía, CENACE
Resumen— La diferencia angular de los voltajes
de barra de un sistema eléctrico de potencia (SEP)
es una medida directa del estado de congestión del
sistema. En este sentido, su continuo monitoreo
brinda al operador una señal de alerta de
posibles estados de congestión del SEP, cuando
las diferencias angulares superan límites de
seguridad pre-establecidos (límites de estabilidad
estática de ángulo). Con el desarrollo de la
tecnología de medición sincrofasorial, el monitoreo
de la diferencia angular ha adquirido un nuevo
enfoque, puesto que se independiza del estimador
de estado, lográndose mayor robustez y rapidez.
El operador del Sistema Nacional Interconectado,
CENACE, dispone actualmente de un sistema
de medición sincrofasorial, administrado por la
plataforma WAProtector. Este software dispone
de una aplicación que permite el monitoreo de la
diferencia angular de voltajes de barra del sistema,
usando técnicas de visualización avanzada. Este
artículo presenta una introducción a la tecnología
de medición sincrofasorial, así como una reseña
del sistema WAMS del CENACE. Posteriormente,
una propuesta metodológica para determinar
los límites de estabilidad estática de ángulo, es
presentada. Estos límites servirán como base
referencial para el monitoreo en tiempo real.
by the WAProtector platform. This software has
an application that allows for monitoring the
system’s busbar phase angle voltage difference
using advanced visualization techniques. This
paper provides an introduction to synchrophasor
measurement technology, as well as an overview
of the CENACE’s WAMS system. Then, a
methodological proposal for determining phase
angle steady-state stability limits is presented.
Such limits act as a referential basis for real-time
monitoring.
Index Terms— Phase Angle Difference, Steadystate Angle Stability, PMU, WAMS, Power
Transfer, DIgSILENT Power Factory.
1. INTRODUCCIÓN
Los Sistemas Eléctricos de Potencia (SEP) han sido
operados cada vez más cerca de sus límites físicos
debido, por ejemplo, a la inclusión de principios de
desregularización en el mercado eléctrico, la interconexión
con sistemas regionales, la diversificación de las fuentes
primarias de energía e incluso nuevas restricciones de tipo
ambiental. Bajo estas condiciones, ciertas perturbaciones
imprevistas podrían causar la violación de los límites de
seguridad del SEP, poniéndolo en riesgo de un eventual
colapso total o parcial [1], [2]. En este sentido, la
supervisión de la seguridad estática y dinámica del SEP
en tiempo real presenta un rol fundamental dentro de las
aplicaciones empleadas en los Centros de Control. Este
monitoreo en tiempo real tiene como objetivo brindar una
alerta temprana (early-warning) al operador del sistema
con el objetivo de llevar a cabo acciones adecuadas de
control que mitiguen los posibles estados de estrés del
sistema. En este contexto, además de las funcionalidades
de los sistemas SCADA/EMS, se requieren innovaciones
tecnológicas complementarias a fin de evaluar y mejorar
la seguridad del sistema en tiempo real. Parte de estas
tecnologías corresponde a los denominados sistemas de
medición sincrofasorial (PMU/WAMS).
Palabras clave— Diferencia Angular, Estabilidad
Estática de Ángulo, PMU, WAMS, Transferencia
de Potencia, DIgSILENT Power Factory.
Abstract— The phase angle difference between
busbar voltages in an electric power system (EPS)
is a direct measurement of the system’s congestion
state. In this manner, a constant monitoring alerts
the operator of possible congestion problems
among the EPS when phase angle differences
exceed pre-established limits (steady-state
angle stability limits). With the development
of synchrophasor measurement technology,
monitoring the phase angle difference has taken
on a new focus, given that it is analysed separate
from the State Estimator, achieving improved
speed and strength. The National Interconnected
System’s operator, CENACE, currently uses a
synchrophasor measurement system managed
Las unidades de medición fasorial (PMUs) son
dispositivos que permiten estimar sincrofasores de las
ondas sinusoidales de corriente y voltaje AC. La alta
precisión, velocidad de respuesta y sincronización de
tiempo hacen de las PMUs equipos apropiados para el
5
monitoreo global en estado estable y dinámico, así como
para aplicaciones en protección y control, como parte
básica de un sistema de monitorio de área extendida
(WAMS – Wide Área Measurement System) [3].
Una ecuación sinusoidal pura:
(1)
donde ω es la frecuencia de la señal en radianes por
segundo, φ es el ángulo de fase en radianes y Xm
es la amplitud pico de la señal, puede ser expresada
a través de un número complejo que gira a la
velocidad angular ω. Este número es conocido como
representación fasorial o simplemente fasor, como se
muestra en la ecuación (2) [5]:
Una de las aplicaciones de los sistemas WAMS es
permitir la supervisión del estado de congestión de los
diferentes vínculos que conforman el SEP, a través de,
por ejemplo, el monitoreo de la diferencia angular entre
los voltajes de barra del sistema.
La Corporación Centro Nacional de Control de
Energía (CENACE) actualmente dispone de un
sistema WAMS compuesto por 18 PMUs ubicadas a lo
largo del Sistema Nacional Interconectado (SNI) y de
un concentrador de datos (PDC) basado en software,
ubicado en las instalaciones de CENACE. El PDC
es administrado por la aplicación WAProtectorTM de
la firma eslovena ELPROS. Este software dispone,
además, de algunas aplicaciones que permiten el
monitoreo de la seguridad estática y dinámica del
SNI. Entre estas aplicaciones se encuentra una
estructura para monitorear la diferencia angular
entre los voltajes de las barras donde se encuentran
instaladas las PMUs.
donde
de la señal.
(2)
es el valor RMS (root mean square)
La Fig. 1 ilustra la representación fasorial de una
ecuación sinusoidal pura dada por (1).
(a)
Esta aplicación brinda, al operador, alerta
temprana de posibles estados de congestión del SEP,
a través de una interfaz gráfica, basada en técnicas
de visualización avanzada (gráficos de contorno
dinámico). Con el objetivo de especificar la referencia
de alerta temprana, es necesario configurar los límites
de seguridad relacionados con la diferencia angular
(definidos como los límites de estabilidad estática de
ángulo).
(b)
Figura 1: Representación fasorial de sinusoides: (a) función
sinusoidal, (b) representación fasorial
Un sincrofasor o fasor sincronizado se define
en [6] como “un fasor calculado a partir de datos
muestreados usando una señal de tiempo estándar
como la referencia para la medición”. La referencia
angular es una onda coseno de frecuencia nominal,
sincronizada con el tiempo UTC (Coordinated
Universal Time) a través de GPS [6].
Este artículo presenta, en primer lugar,
una introducción a la tecnología de medición
sincrofasorial, así como una reseña del sistema
WAMS del CENACE. Posteriormente, se presenta
una propuesta metodológica para determinar los
límites de estabilidad estática de ángulo. Estos límites
servirán como la base referencial para el monitoreo
en tiempo real de posibles estados de congestión del
sistema.
Las unidades de medición sincrofasorial (PMUs)
son dispositivos que permiten estimar sincrofasores
de las ondas sinusoidales de corriente y voltaje AC,
en diferentes nodos de un SEP [6]. Para calcular un
sincrofasor la PMU utiliza un algoritmo de estimación
fasorial. Estos algoritmos utilizan un número N de
muestras en el tiempo para efectuar la estimación del
fasor. El algoritmo más comúnmente utilizado es la
transformada discreta de Fourier [7].
2. TECNOLOGÍA DE MEDICIÓN FASORIAL
Un fasor constituye la representación analítica
de ondas sinusoidales en estado estacionario a la
frecuencia fundamental más comúnmente aplicada.
Los fasores se utilizan como la herramienta matemática
básica del análisis de circuitos de corriente alterna [4]
Las PMUs forman parte indispensable de los
sistemas WAMS, los cuales permiten disponer
6
de mediciones distribuidas en el SEP. Para esto,
además de PMUs, se requieren
algoritmos
avanzados de procesamiento digital de señales,
sistemas de comunicación especializados y una
infraestructura capaz de proporcionar información
dinámica del sistema en tiempo real. Esta tecnología
incluye aplicaciones de supervisión y control de
la operación del SEP en tiempo real. Los sistemas
WAMS están constituidos principalmente por
PMUs, concentradores de datos (PDC) y sistemas de
comunicación [8].
potencia (alerta temprana).
• Disponer de información y herramientas más
precisas para realizar los análisis eléctricos
de estabilidad del sistema y determinar la
presencia de modos de oscilación poco
amortiguados.
La utilización de las PMUs permite obtener
medidas directas de los fasores de voltaje y corriente a
través de la red completa, eliminando, de forma ideal,
la necesidad esencial de los estimadores de estado.
Las PMUs entregan información en intervalos de
milisegundos, por lo que permiten el monitoreo del
comportamiento estático y dinámico del SEP. Pueden
ser usadas para detectar separaciones del sistema,
monitorear congestión, analizar oscilaciones en
tiempo real, e incluso desarrollar sistemas de control
de lazo cerrado. [9].
Figura 2: Diagrama unifilar del SNI con la ubicación de las
PMUs
• Disponer de información adecuada para
realizar la evaluación post - operativa del
comportamiento eléctrico del sistema luego
de un evento e identificar las oportunidades de
mejora en los procesos de restablecimiento.
• Ajustar y sintonizar los estabilizadores del
sistema de potencia (PSS) y validar los
modelos de los sistemas de control asociados a
los generadores.
3. WAMS EN ECUADOR
La Corporación CENACE, como ente encargado
de la administración técnica y comercial del Sector
Eléctrico Ecuatoriano, ha emprendido, desde el año
2010, un proyecto para estructurar un sistema WAMS
que facilite el monitoreo y supervisión en tiempo real
del Sistema Nacional Interconectado (SNI) a partir de
mediciones sincrofasoriales.
Actualmente, CENACE ha concluido la primera
fase del proyecto, consistente en la instalación de
18 dispositivos PMUs que será complementada con
la instalación de 4 PMUs adicionales. El objetivo es
aumentar la granularidad de la observabilidad del
sistema eléctrico mediante el monitoreo de aquellas
zonas que tienen una alta relevancia operativa. Esto,
con el propósito de realizar una evaluación precisa
y fiable del rendimiento del sistema, especialmente
en términos de su respuesta dinámica. La Fig. 2
muestra el diagrama unifilar del Sistema Nacional
Interconectado y la respectiva ubicación física de las
18 PMUs.
Para llevar a cabo las aplicaciones de análisis del
sistema de potencia en tiempo real utilizando las
mediciones sincrofasoriales, CENACE adquirió el
M
software WAProtectorT desarrollado por la empresa
ELPROS de Eslovenia.
WAProtector adquiere los datos fasoriales de las
PMUs a través de la red de comunicaciones intranet
estándar. En el servidor del software WAProtector,
se realiza el análisis de datos en tiempo real y la
evaluación de la seguridad del sistema eléctrico.
En el mismo servidor se encuentran instalados
tanto el PDC como las aplicaciones. El servidor PDC
se conecta directamente con los PMUs instalados en
las Subestaciones del SNI. utilizando el protocolo
IEEE C37.118 [6]. El muestreo en la transmisión de
información de los PMUs es 60 muestras por segundo.
Además, este software tiene la funcionalidad para
desarrollar nuevas aplicaciones y mejorar el monitoreo
de la estabilidad del sistema eléctrico.
Los principales objetivos que se persiguen con el
proyecto WAMS son los siguientes:
• Otorgar a la supervisión en tiempo real del SNI,
las herramientas que le permitan realizar una
acción preventiva y con mayor oportunidad,
ante riesgos de inestabilidad del sistema de
7
Las aplicaciones disponibles en WAProtector son:
donde VA y VB son las magnitudes de voltaje de las
barras A y B, respectivamente, θA y θB representan
los ángulos del voltaje de las barras A y B,
respectivamente, x es la impedancia del vínculo entre
las barras A y B, y r es la resistencia del vínculo entre
las barras A y B.
• Estabilidad Estática de Ángulo (Diferencia
Angular)
• Estabilidad de Voltaje de Corredores de
Transmisión
• Estabilidad Oscilatoria
• Detección de Islas
• Información de Armónicos del Sistema
• Análisis de Información Histórica
• Eventos del Sistema
Considerando que en un SEP, a nivel de alto
voltaje, x >> r, la expresión anterior se reduce a (4),
cuya representación gráfica se muestra en la Fig. 5.
4. ESTABILIDAD ESTÁTICA DE ÁNGULO
(4)
Idealmente el límite máximo de transferencia
de potencia, se presenta en el punto más alto de la
curva cuando se cumple que, sin(θA–θB) = 1; es decir,
cuando θA–θB = 90°.
La estabilidad angular se refiere a la habilidad de
las máquinas sincrónicas de un sistema de potencia
interconectado, para permanecer en sincronismo,
luego de que el sistema ha sido sometido a una
perturbación. Para mantener el sincronismo es
necesario mantener o recuperar el equilibrio entre
los torques: mecánico y electromagnético de cada
máquina sincrónica del sistema [10].
La diferencia angular entre dos barras del sistema
de potencia es una medida directa de la capacidad de
transmisión entre estos nodos. La Fig. 3 ilustra dos
áreas (A y B) de un sistema de potencia interconectadas
por un conjunto de vínculos eléctricos.
Figura 5: Curva Potencia – Ángulo
Sin embargo, debido a la complejidad del sistema
de potencia, que puede causar congestión de la red
de transmisión, existen otros factores que no permiten
alcanzar este límite ideal.
Bajo la premisa que en sistemas de potencia estables
θA–θB corresponde a un valor pequeño, el flujo de
potencia por el vínculo equivalente es directamente
proporcional a esta diferencia angular.
Figura 3: Transferencia de potencia entre dos barras del
sistema
Asumiendo el modelo “π” para el vínculo
equivalente entre las dos áreas, presentado en la Fig.
4, la transferencia de potencia entre el área A y el
área B está dada por la expresión (3).
(5)
En este sentido, el límite de transferencia de
potencia entre las barras A y B es íntimamente
dependiente del límite máximo de diferencia angular
entre dichos nodos y viceversa.
Por lo tanto, para determinar el límite máximo de
la diferencia angular entre las barras A y B (definido
como límite de estabilidad estática de ángulo) se
debe llegar al límite la transferencia de potencia por
el vínculo. Por tanto, el monitoreo de la diferencia
angular entre las barras del sistema brinda al operador
una señal de alerta de congestión del sistema.
Figura 4: Equivalente “π” de vínculos de sistemas de potencia
(3)
8
WAProtector dispone de una función que permite
el monitoreo de la diferencia angular de los voltajes
de las barras monitoreadas por PMUs, a través de
aplicaciones gráficas de visualización avanzada. La
Fig. 6 presenta un ejemplo de la visualización gráfica,
a través de diagramas de contorno, de la diferencia
angular en tiempo real. Es posible apreciar cómo el
contorno adquiere un tono rojo obscuro en función
del incremento de la congestión de la red, reflejada
en el incremento de la diferencia angular. Esta
visualización brinda al operador una alerta rápida del
incremento de la congestión en el sistema.
(a)
mecanismo de análisis planteado consiste en simular,
mediante un software de análisis de SEP (DIgSILENT
Power Factory en este caso), el comportamiento de la
transferencia de potencia bajo diferentes condiciones
operativas (condiciones de alta y baja hidrología con
escenarios de baja, media y alta demanda), incluyendo
análisis de contingencias y el incremento paulatino de
carga. Así, se plantea como alternativa metodológica la
presentada en la Fig. 7.
(b)
Figura 6: Contorneo dinámico de diferencias angulares: (a)
demanda baja, (b) demanda media
Adicionalmente, WAProtector permite configurar
los valores límite de separación angular entre barras,
con el objetivo de brindar al operador una señal de
alerta, en caso de la violación de dichos límites. Estos
valores corresponden a los límites de estabilidad
estática de ángulo, los cuales deben ser determinados
adecuadamente. En este sentido, el presente artículo
propone una metodología para determinar dichos
límites en el SNI.
Figura 7: Propuesta metodológica para determinar los
límites de estabilidad estática de ángulo
5. DETERMINACIÓN DE LOS LÍMITES DE
ESTABILIDAD ESTÁTICA DE ÁNGULO
La metodología inicia con la definición de los
escenarios de análisis. La primera actividad de esta
etapa requiere de la revisión de las bases de datos del
programa DIgSILENT Power Factory para verificar
que se encuentren actualizadas conforme al período
de análisis. Posteriormente, se preparan los casos de
estudio que incluyan las condiciones operativas que
se requieren analizar.
Se presenta una metodología, cuyo objetivo es definir
los valores límite de alerta y alarma de la diferencia
angular entre las barras donde están instaladas las PMUs
respecto de la subestación Molino (tomada como la
referencia). Esto, con el propósito de entregar al operador
una referencia operativa que brinde alerta temprana del
riesgo de congestión, bajo la premisa de mantener la
seguridad estática del sistema.
A través de un análisis de contingencias N – 1,
de diferentes elementos de transmisión, asociado a
incrementos paulatinos de carga en zonas específicas,
llevado a cabo con la ejecución de un script incluido
en Power Factory mediante el lenguaje DPL
(DIgSILENT Programming Language), se crean
condiciones de alto estrés en el sistema de transmisión
Con este objetivo, se propone realizar estudios estáticos
que permitan evaluar las condiciones más críticas de
transferencia de potencia en el SNI, considerando la
posible ocurrencia de contingencias N-1 y el aumento
paulatino de carga en zonas particulares del Sistema. El
9
ecuatoriano, lo que permite determinar los límites
máximos de separación angular entre las barras de
230 kV del SNI. La Fig. 8 presenta la pantalla del
script estructurado mediante el lenguaje DPL
angulares entre Pascuales y Molino para
escenarios de alta hidrología y baja hidrología,
respectivamente.
Figura 9: Histograma de diferencias angulares entre las
barras de Pascuales y Molino para escenarios de alta
hidrología
Figura 8 : Pantalla del script DPL
En este sentido, y a manera de ejemplo, para
determinar el límite de diferencia angular entre
Molino y Pascuales, se producen incrementos
paulatinos de carga en la zona de Guayaquil, con lo
que se incrementa la transferencia en los corredores
de transmisión que enlazan Molino y Pascuales. Al
asociar estos incrementos con contingencias en
elementos de transmisión, la diferencia angular se
incrementa aún más, hasta que el sistema alcanza
un punto de no convergencia. El script permite
almacenar los ángulos de las barras del SNI justo
antes de alcanzar este punto de inestabilidad
estática.
Figura 10: Histograma de diferencias angulares entre
las barras de Pascuales y Molino para escenarios de baja
hidrología
Como se puede observar a través del análisis
estadístico, realizar una distinción entre escenarios
hidrológicos resulta fundamental, ya que el despacho
de generación presenta drásticas alteraciones y con ello
también, los flujos a través de las líneas de transmisión
del sistema.
Resulta necesario realizar una distinción entre
los escenarios hidrológicos del SNI para determinar
los límites de diferencias angulares, para cada
estación, a través de un análisis estadístico
determinando la media y la desviación estándar de
las diferencias angulares obtenidas para todos los
casos previstos en cada escenario hidrológico.
Las Figuras 11 y 12 muestran, por su parte, los
histogramas correspondientes a las diferencias angulares
entre Molino y Santa Rosa, la barra más representativa de
la zona norte del SNI.
El valor medio (µ) de las diferencias angulares
máximas establecidas, constituye el límite
de alerta. Por otra parte, el límite de alarma
corresponde a la suma entre el valor medio y una
desviación estándar (σ) de la muestra. Esto se basa
en el criterio de que al menos el 50% de los valores
analizados deberían quedar incluidos dentro del
intervalo de la desviación estándar en torno de la
media (µ ± σ), conocido como la desigualdad de
Chebyshev [11].
Figura 11: Histograma de diferencias angulares entre las
barras de Santa Rosa y Molino para escenarios de alta
hidrología
De forma ilustrativa, las Figuras 9 y 10 presentan
histogramas de los resultados de diferencias
10
puesto que se constituyen en la herramienta básica
de monitoreo y control del sistema de transmisión
moderno.
Una de las aplicaciones del sistema WAMS es
permitir el monitoreo de la congestión del sistema,
mediante por ejemplo, la supervisión de la diferencia
angular de los voltajes de barra del sistema. Parte
indispensable del monitoreo es el disponer de una
adecuada referencia (límites de seguridad), que brinde
alerta temprana al operador cuando las zonas seguras
de operación sean sobrepasadas.
Figura 12: Histograma de diferencias angulares entre las barras
de Santa Rosa y Molino para escenarios de baja hidrología
Utilizando el mismo análisis estadístico, se logra
determinar los límites, de alerta y alarma, de la
diferencia angular entre todas las barras de 230 kV
del SNI, que se encuentran bajo monitoreo, y Molino.
Estos límites se presentan en las Tablas 1 y 2.
A través de la metodología propuesta en el presente
artículo, se lograron determinar los valores límites de
diferencia angular entre las barras de 230 kV del SNI
en las cuales se encuentran ubicadas PMUs. Puesto
que la metodología considera diferentes estados
operativos y varias contingencias, los resultados se
presentan mediante histogramas, los cuales han sido
interpretados a través de funciones de distribución de
probabilidades, determinándose los límites definitivos
en función de la desviación estándar y el criterio dado
por la desigualdad de Chebyshev.
Tabla 1: Límites de diferencia angular entre las barras
de 230 kV del SNI con respecto a la barra de la subestación
Molino en escenarios de alta hidrología
En base a los resultados se puede notar que los
límites de separación angular entre las barras de 230
kV del SNI con respecto a la subestación Molino
son mayores en escenarios de alta hidrología. Esto
se debe, principalmente, a que en este escenario se
presenta un elevado despacho de generación de la
central Paute, lo que ocasiona que se incremente la
congestión a través de las líneas de transmisión desde
la subestación Molino hacia los centros de carga más
grandes del país, Guayaquil y Quito
Tabla 2: Límites de diferencia angular entre las barras
de 230 kV del SNI con respecto a la barra de la subestación
Molino en escenarios de baja hidrología
REFERENCIAS BIBLIOGRÁFICAS
[1] Amin M. (2000). “Toward Self-Healing
Infrastructure Systems”, Electric Power
Research Institute (EPRI), IEEE.
[2] Kerin U., Bizjak G., Lerch E., Ruhle O. & Krebs
R. (2009). “Faster than Real Time: Dynamic
Security Assessment for Foresighted Control
Actions”, IEEE Power Tech Conference, June
28th - July 2nd, Bucharest, Romania.
vvv
6. CONCLUSIONES Y RECOMENDACIONES
[3] Martinez C., Parashar M., Dyer J. & Coroas
J. (2005). “Phasor Data Requirements for Real
Time Wide-Area Monitoring, Control and
Protection Applications”, CERTS/EPG, White
Paper – Final Draft.
El desarrollo tecnológico actual en sistemas
informáticos, electrónica y telecomunicaciones,
ha permitido vislumbrar una nueva perspectiva en
la operación del SEP, mediante la cual se pretende
automatizar la respuesta del sistema con el objetivo
de estructurar una red inteligente. Los sistemas
WAMS forman parte fundamental de esta tendencia
11
[4] Phadke A. G. (1993). “Synchronized phasor
measurements in power systems”, IEEE
Computer Applications in Power, vol.6, no.2,
pp.10-15.
[11] Han J. & Kamber M. (2006). “Data Mining:
Concepts and Techniques”, second edition,
Elsevier, Morgan Kaufmann Publishers.
[5] Phadke A. & Thorp J. (2008). “Synchronized
Phasor Measurements and Their Applications”,
Virginia Polytechnic Institute and State
University, Springer Science + Business
Media.
Jaime Cristóbal Cepeda.- Nació en
Latacunga en 1981. Recibió el título
de Ingeniero Eléctrico en la Escuela
Politécnica Nacional en 2005 y el de
Doctor en Ingeniería en la
Universidad Nacional de San Juan en
2013. Entre 2005 y 2009 trabajó en
Schlumberger y en el CONELEC. Colaboró como
investigador en el Instituto de Energía Eléctrica,
Universidad Nacional de San Juan, Argentina y en el
Instituto de Sistemas Eléctricos de Potencia,
Universidad Duisburg-Essen, Alemania entre 2009 y
2013. Actualmente, se desempeña como Jefe de
Investigación y Desarrollo del CENACE. Sus áreas
de interés incluyen la evaluación de vulnerabilidad en
tiempo real y el desarrollo de Smart Grids.
[6] IEEE Power Engineering Society (2011).
“IEEE Standard for Synchrophasors for Power
Systems”, IEEE Std. C37.118.1-2011.
[7] Cimadevilla R. (2009). “Fundamentos de
la Medición de Sincrofasores”, ZIV P+C
- España, XIII ERIAC, Puerto Iguazú,
Argentina.
[8] Juárez C. & Colomé D. (2009). “Tendencias
en la Supervisión en Tiempo Real de la
Estabilidad de Pequeña Señal de Sistemas
de Potencia”, XIII ERIAC, Puerto Iguazú,
Argentina.
Pablo Verdugo Rivadeneira.- Nació
en la ciudad de Quito en 1987.
Realizó sus estudios secundarios en
el Colegio Nacional Experimental
Juan Pío Montufar y sus estudios
superiores en la Escuela Politécnica
Nacional, donde se gradúo de
Ingeniero Eléctrico en el año 2012. Actualmente
trabaja en la Dirección de Planeamiento del Centro
Nacional de Control de Energía.
[9] Savulescu S. C., et al. (2009). “Real-Time
Stability Assessment in Modern Power System
Control Centers”, IEEE Press Series on Power
Engineering, Mohamed E. El-Hawary, Series
Editor, a John Wiley & Sons, Inc..
[10] Kundur P., Paserba J., Ajjarapu V., et al.
(2004). “Definition and classification of power
system stability”, IEEE/CIGRE Joint Task
Force on Stability: Terms and Definitions.
IEEE Transactions on Power Systems, Vol. 19,
Pages: 1387-1401.
12
La Generación Distribuida: Retos frente al Marco Legal del Mercado
Eléctrico Ecuatoriano
E. Fernando Durán
Empresa Eléctrica Regional Centro Sur C.A. - Universidad de Cuenca
Resumen— El análisis de la normativa enfocada
en el concepto de la Generación Distribuida, la
evolución en tecnologías, la importancia de la
seguridad energética y la diversificación de la
matriz con energías renovables, la necesidad
de reducir la dependencia en combustibles
fósiles, exige que se fomenten en el Ecuador
nuevos proyectos de recursos renovables no
convencionales. La GD debe ser parte del modelo
de negocio a la par del advenimiento de las redes
inteligentes, esta evolución exige la revisión y
estudio detenido y especializado de normas de
concesión, impactos en la red, medidas para de
mitigación de riesgos. Los vehículos eléctricos
híbridos, dispositivos de almacenamiento, micro
redes inteligentes, podrán ser realidad si se parte
de la experiencia y lecciones aprendidas de países
que van a la delantera.
1. INTRODUCCIÓN
Los países en la región y el orbe, han producido
un importante incremento en el número de
instalaciones de Generación Distribuida (GD). Con
ello han surgido nuevos requerimiento en los SD: el
incremento o reducción de las pérdidas, la necesidad
de reforzar la capacidad de las líneas y subestaciones
(centros de transformación) para dar espacio a los
nuevos flujos de potencia inyectados por la GD o a la
inversa, podría requerirse la reducción del volumen
de inversiones en repotenciar en las redes (generar
en puntos cercanos a la demanda reduce los flujos
de energía).
La conexión de estos generadores en los niveles
más bajos del esquema jerárquico altera dicho
esquema, planteando una serie de problemas de
naturaleza técnica y regulatoria.
Palabras clave— Mercado Eléctrico, Matriz
Energética, Generación Distribuida (GD), Sistema de
Distribución (SD), Inrerconexión Electrica.
Las actuales y regulaciones en la mayoría de
los países de América Latina no tienen la madurez
y sobre todo los elementos legales, técnicos y
económicos que incorporen las tarifas y medidas
que permitan el acceso con costos preferenciales o
eventualmente contar con normas para el libre uso
de las redes para la inyección de nueva generación.
Abstract— An analysis on the regulations
regarding the concept of Distributed Generation,
technology developments, the importance of
energy security and diversification of the energy
matrix with renewable energy, and the need to
reduce dependency on fossil fuels, all demand that
Ecuador develop new non-conventional projects
for renewable energy sources. The DG should
be part of the business model together with the
coming of smart grids, and such developments
call for a careful and specialized study and review
of concession regulations, energy grid impacts,
and risk mitigation measures. Electric hybrid
vehicles, storage devices, and smart micro grids
could become a reality if based on the experience
and lessons learned by leading countries.
Aún en países que han realizado estudios previos,
no se dan criterios uniformes de la interconexión de
la Generación Distribuida, es un modelo que requiere
mucha apertura en la negociación de las partes para
que se consigan los beneficios en ambas direcciones.
Se buscan establecer los posibles efectos adversos
que encuentra la GD e identificar los desafíos a
superar y obstáculos de la regulación para adopción
de la configuración de la red de distribución y los
estudios para identificar las señales que permitan
calificar y evaluar aquellos proyectos de Generación
Distribuida que buscan su espacio en el sistema
eléctrico, en un entorno regulatorio los más claro y
consistente y respaldado del correspondiente análisis
técnico-económico.
Index Terms— Electricity Market, Energy Matrix,
Distributed Generation (GD), Distribution System
(SD), Electric Power Interconnection.
13
2. DEFINICIÓN
DE
DISTRIBUIDA [1]
LA
GENERACIÓN
El concepto y desarrollo de la denominada
“Generación Distribuida (GD)” no es nuevo,
pero hoy en día se orienta al uso estratégico de
unidades modulares, las que pueden ser proyectadas
para instalarse aisladas de la red o mejor operar
interconectadas a la red próxima a los puntos
de consumo. Varias definiciones se dan en las
referencias [2][3][6][8]
El crecimiento del mercado eléctrico y el progreso
técnico, han impulsado a que el tamaño óptimo de
la generación disminuya en relación al tamaño del
mercado y a la capacidad financiera privada.
Figura 1: SEP con Generación Distribuida (Embebida) [7]
2.1. Clasificación de la GD
Por variaciones en las definiciones, las distintas
acepciones se discuten por medio de una clasificación
para completar el amplio concepto de la generación
distribuida:
Actualmente se disponen de tecnologías que
producen la energía eléctrica primaria utilizando
generadores pequeños y a menor costo $/MW
generado.
A.
B.
C.
D.
E.
F.
G.
H.
La GD por sus dimensiones y ubicación puede
conectarse a la red de distribución (subtransmisión)
y su energía será consumida en el lugar; evitando o
difiriendo costos de inversión en transporte, como
también las pérdidas de energía que se producirían si
tal red se ampliara. [4]
No existe una definición universalmente aceptada
sobre que es Generación Distribuida y en que la
diferencie de la generación centralizada, algunos de
los atributos que la caracterizan son [3]:
•
•
•
•
El propósito;
La localización u ubicación;
Calificación por rango de capacidad;
Área de entrega de potencia;
Tecnologías;
Impacto ambiental;
Modo de Operación;
La penetración de generación distribuida.
No es centralmente planificada.
No siempre es centralmente despachada.
Usualmente conectada a la red de distribución.
Menor a 50 MW.
La definición más difundida es la de IEEE
(Institute of Electrical and Electronic Engineers):
"Generación
Distribuida
corresponde
a
la producción de energía eléctrica mediante
instalaciones suficientemente pequeñas en relación
con la generación centralizada, de manera que
permiten la interconexión en cualquier punto de la
red, siendo un subconjunto de recursos distribuidos
del sistema de distribución”.
Figura 2: Localización por Crecimiento del nivel de Tensión en
el SD y rango de la GD
Se describirán las cualidades más representativas.
B. Localización
La ubicación es virtualmente cualquiera en la
red de distribución y hacia la subtransmisión, con
limitaciones prácticas de tensión en función de la
potencia como se muestra en la Fig. 2.
En la Fig. 1 se representa el sistema eléctrico
de potencia en el ámbito de la subtransmisión
(transmisión regional) y en especial en las redes de
distribución.
14
(2)
2.3. Criterios de Integración
La integración de la GD al SEP requiere aspectos
más allá de los técnicos y económicos: tecnología,
modo de operación, propietario, etc. El impacto de
la integración para superar la incertidumbre en los
aspectos de la localización y el dimensionamiento,
consiste adoptar ciertas consideraciones de prioridad
por carga:
Figura 3: Rango de capacidades de la GD [12
C. Definición GD por el rango de capacidad
MW [3]
Instalación de GD en las barras de carga: Se
requieren las normas de conexión y de transformación
para la operación segura de las unidades.
2.2. Indicadores de integración de la GD [10][11]
sificación de la GD
Una caracterización cuantitativa de la Integración
se puede hacer conociendo la definición de la
cantidad y capacidad de las fuentes de generación.
Nivel de Penetración [11]
La definición del El Nivel de Penetración de la
GD (% Nivel GD), interpreta la fracción de la carga/
demanda total del sistema (PLoad) que va a ser
suplida por la GD, siendo definida o evaluada por la
expresión (1):
(1)
Figura 4: Modelos de interacción con la red por el modo de
interconexión de la GD [11]
Donde de PGD es: Potencia producida por la
Generación Distribuida.
Prioridad de integración: Faltan acuerdos e
incentivos sobre ello, según los intereses del
consumidor o del operador de la red. Un posible
escenario, se basa en que la instalación se sirve
para satisfacer parte de la carga local y el saldo para
exportar.
Baja Penetración: menor al 30%, mercado
conservador con barreras económicas y técnicas.
Semi-Ideal: penetración del 50% de la carga total
instalada en el sistema. Escenario Ideal: una
penetración total (100%). GD = carga del sistema.
Un mercado de completa competencia. Escenario
Utópico: GD instalada superior a la carga, para la
exportación de energía.
Despacho de la Unidad: Un caso posible será
que sea despachada como la fracción de la carga
local conectada y el nivel global de penetración y
dispersión planteado en un escenario.
Nivel de Dispersión [11]
2.4. Clasificación por tecnología de las Fuentes de
GD
El Nivel de Dispersión de la generación distribuida
(%Dispersión GD), es la razón del número de nodos
con inyección de GD (#BusGD) y el número de
nodos con Demanda (2):
En la Tabla 3, se presenta un resumen de las
tecnologías con su rango típico de aplicación o
disponible por módulo de generación. Los principios
de conversión en las tecnologías empleadas para la
Generación Distribuida, que más representativas
son:
El nivel de Dispersión GD es 0% si sólo existe
potencia generada desde el sistema centralizado o el
otro extremo, si la GD se aplica en todos los nodos
donde existe demanda de potencia (100%).
15
•
•
•
•
Máquinas Térmicas
Celdas de Combustible
Sistemas de conversión de energía del viento
Sistemas de conversión de energía del sol.
2.7. Potencial de instalación de GD en el Ecuador
La situación actual del abastecimiento de energía
eléctrica requiere una especial atención, pues a
pesar de la disponibilidad de recursos hídricos en el
País, durante la última década la disponibilidad de
generación hidroeléctrica se ha mantenido, con un
alto componente de la generación termoeléctrica, y
como también dependencia de la energía importada
de Colombia.
2.5. Sistemas de almacenamiento / sistemas de
UPS
Los sistemas de almacenamiento de energía
intercambian energía en periodos cortos. Se
aplican para compensar el voltaje, y minimizar
perturbaciones: sag, flicker y surges. Los mismos
se emplean como fuente ininterrumpida de energía
(UPS).
La solución técnica de almacenaje de energía
también se aplica y define como fuente de energía
distribuida, su estado actual es en desarrollo.
2.6. Cogeneración una forma de Generación
Distribuida [12]
La cogeneración se define como la generación
simultánea de dos formas de energía útil a partir
de una fuente de energía primaria. La generación
eléctrica convencional desecha el calor residual,
lo que no pasa con las tecnologías de Generación
Distribuida (GD), debido a su tamaño y a la ubicación
cercana a la carga, permitiendo la recuperación del
calor. El usuario final puede generar tanto energía
térmica como eléctrica en (CHP) un solo sistema
ubicado próximo a sus instalaciones, con eficiencia
de hasta el 90%.
Figura 6: Estructura Sectorial q’ con la Inclusión de GD
El Gobierno actual se ha empeñado en revertir esta
condición, mediante la construcción de proyectos
hidroeléctricos, así como la instalación de generación
termoeléctrica eficiente y el aprovechamiento de
importantes fuentes de energía renovable.
Para el cambio en el esquema de la nueva Ley, se
recomienda que la GD sea parte activa, a través de
incorporarse en los niveles de Tensión Baja, Media y
Subtransmisión, de la siguiente manera:
Es necesario impulsar el uso de las diferentes
opciones de fuentes de generación alterna y de
energías renovables no convencionales (ERNC),
apuntando a la definición de políticas energéticas
y para desarrollar una planificación que incluya las
siguientes acciones:
• Diversificar la matriz energética con energías
renovables como la eólica, biomasa, biogás,
fotovoltaica, geotérmica y micro centrales
hidroeléctricas.
• Desarrollo del marco jurídico para incentivar
el uso de biocombustibles.
• Promover el uso racional de la energía
e introducir como política de Estado el
concepto de eficiencia energética.
• Plantear las regulaciones “específicas” que
permitan la incursión en proyectos embebidos
en la redes de distribución (GD), tanto por
parte de las Empresas de Distribución como
Figura 5: Cogeneración eléctrica –térmica.
Un sistema Integrado localizado está muy próximo
al edificio o industria y provee al menos una porción
de la energía eléctrica que éste requiere y procede
a reciclar la energía térmica el acondicionamiento
o climatización de los diferentes ambientes Calor
/ Enfriamiento, como también en el proceso de
producción e incluso se aplica para control de la
humedad del ambiente.
16
de la empresa privada o en alianza estratégica
de ambas.
Se evalúan los nodos de carga se contabilizan
el total de subestaciones de las distribuidoras que
potencialmente recibirán generación distribuida,
con niveles de tensión de subtransmisión 69/13,8kV
y 69/22kV, que alcanzan a 273.
2.8. Evaluación penetración de la GD en Ecuador.
Fuentes de energía convencional [16]
Los dos criterios principales que permiten evaluar
el grado de integración de la GD, para modelar la
oferta de Generación Distribuida son:
Utilizando como fuente de información el
documento “Estadística del sector Eléctrico
Ecuatoriano 2009-2010” se han evaluado la cantidad
de nodos de carga.
Nivel o Grado de penetración de la GD% y
Nivel o Grado de dispersión de la GD%
Como ejemplo se simula con demanda pico del
País en el 2010 que alcanza a 3.036 MW.
(3)
De la simulación realizada, el resultado denota
valores de Baja Dispersión, con un nivel menor al
30%; lo cual puede ser un caso algo común.
Para evaluar la potencia firme instalada se toma
un escenario:
Es decir la generación distribuida aun no habría
sido instalada ni en la mitad de los nodos con carga,
por lo que no se avizora un mercado atractivo para
que los consumidores empiecen a recibir incentivos
para la conexión de generación distribuida en
forma local, sin embargo como se observa en
3.1 recientemente se han generado algunas bases
legales, pero no lo suficiente para una confianza y
seguridad para el inversor no son lo fuertes, para
tomar el riesgo.
Tabla 1: Grado de Penetración % 2010
El valor de 39,35% corresponde a un escenario
de Baja Penetración, lo que se permite estimar que
se establece en un mercado conservador con muchas
barreras económicas y técnicas, que hacen deducir
que la incorporación de GD sería parte de un proceso
que tomaría algún tiempo.
La GD no se orienta al aprovechamiento de estas
economías de escala, y para que tenga sentido
económico, deben identificarse otros intereses
relevantes que la hagan conveniente. Los casos
potencialmente favorables a la generación distribuida
al menos son:
Nivel de Dispersión.- Para establecer un primer
escenario algo simple, se considera un área del
sistema de potencia que refleje el número de
puntos en la red para describir este índice en donde
se tenga conectada GD, por el total de centrales
menores instaladas y conectadas al SNI en las 19
Distribuidoras y las empresas autogeneradoras que
se han conectado a estos sistemas de subtransmisión:
• La posibilidad de ahorros en distribución, por
reducción de las inversiones y la disminución
de las pérdidas en las redes.
• El aprovechamiento de fuentes de energía
primaria, renovables, cuya escala y
localización sólo permite la aplicación de la
generación distribuida.
• La generación en pequeña escala puede tener
un impacto económico positivo si permite el
aprovechamiento de insumos y mano de obra
nacional.
Tabla 2: Grado de Penetración % 2010
La generación eléctrica convencional,
identificada en el país por dos aspectos:
está
• Proyectos que se encuentran en ejecución
(incluyendo algunos que se han paralizado
por diversas circunstancias), y por otro lado
17
los que han obtenido su contrato o certificado
de permiso o concesión, o se encuentran en
trámite en el CONELEC.
• Para el primer caso se presenta el resumen
de cada uno de los proyectos en ejecución, y
en forma detallada su estado de avance en la
referencia. [3]
no se ha logrado determinar por cuanto no hay
evaluaciones, excepto el caso del proyecto de
Pichicay/Santa Ana del Municipio de Cuenca
(1,8 MW), que en función de un convenio entre la
Empresa Municipal de Aseo de Cuenca (EMAC) y
una compañía internacional, en fase de desarrollo.
2.10. Proyectos de GD Economía y Mercados
2.9. Potencial de GD proveniente de Fuentes
Renovables No Convencionales (ERNC) [14]
[15]
2.9.1
La utilización de GD tiene entre otras las siguientes
ventajas económicas:
Para clientes regulados, con consumos altos de
calor, se pueden producir ambos tipos de energía
(como el caso en países Europeos) lo que incentiva la
competencia en el suministro dejando de la elección
la fuente de abastecimiento a los clientes.
Recursos de Energía Solar
La utilización práctica de la energía solar, un
recurso renovable y limpio, para generación eléctrica,
tiene como objetivos principales: la contribución
a la reducción de la emisión de gases de efecto
invernadero, la posibilidad de llegar con electricidad
a zonas alejadas de las redes de distribución.
Mientras estos cambios han afectado a todos
los generadores, la GD se ve más fuertemente
afectada debido a su tamaño más pequeño y costos
proporcionadamente más altos de transacción,
ello se ha debido principalmente a las siguientes
situaciones:
La necesidad de contar con un documento técnico
que cumpla con esta exigencia a fin de impulsar el
uso masivo de la energía solar como fuente energética
motivó al CONELEC a publicar, en agosto de 2008,
el “Atlas Solar del Ecuador con fines de Generación
Eléctrica”, el mismo que fue elaborado por la
Corporación para la Investigación Energética, CIE.
2.9.2
• Competencia.
• Contratos Bilaterales.
• Adquisición de Potencia de Reserva.
Recursos de Energía Eólica
2.11. Impacto de la GD en la explotación de la Red
de Distribución [5]
Las zonas localizadas sobre la línea ecuatorial
no son ricas en vientos, pero en el Ecuador existen
zonas de alto interés eólico por la presencia de Los
Andes y su cercanía al Océano Pacifico.
Cuando se presente un incremento de penetración
de la GD conectada a la red superior al requerimiento
interno del consumidor, la energía puede transferirse
a la inversa hacia la distribución y transmisión aguas
arriba. Como parte de una evaluación del impacto
de las redes de distribución se deben considerar
aspectos como:
Los sistemas eólicos requieren de diversos
parámetros relativos al viento que son fundamentales
para dimensionarlos; como por ejemplo la velocidad,
las variaciones diarias, mensuales y estacionales de
la misma para los sitios que presentan condiciones
favorables.
•
En la región amazónica no se han detectado
velocidades de viento que permitan pensar en
proyectos de generación de electricidad factibles.
2.9.3
Las capacidades y congestión de las redes
en los diferentes niveles de tensión de su
incursión.
Las pérdidas son de los efectos que mayor
resistencia puede presentar, en especial cuando se
cree que el impacto es negativo en temas como:
Recursos de Biomasa
•
•
•
•
•
•
•
•
El potencial de biomasa en el Ecuador es de gran
importancia, por ser tradicionalmente agrícola y
ganadero, actividades que generan desechos que son
aprovechados en forma aislada energéticamente.
En lo que se refiere al tratamiento de desechos
sólidos urbanos con fines energéticos, su potencial
18
Corrientes de cortocircuito.
Selectividad de las protecciones.
Robustez de la red.
Perfiles de voltaje.
Estabilidad del sistema.
Islanding (operación en isla).
Equilibrio y reserva del sistema.
Calidad de la energía.
Toda GD que pueda integrarse en las redes
eléctricas, está interrelacionada con los efectos en
ella, no sólo en las condiciones de operación, sino
también en la transmisión aguas arriba. Para lo cual
e indispensable considerar los casos siguientes:
•
•
•
•
Se cree que el éxito de la GD depende o está
asociado, al éxito de las comunicaciones, los sistemas
de gestión y control de potencia como también de
la capacidad de los diseñadores para aprovechar al
máximo de los grados de libertad de los sistemas
electrónicos e inteligentes que hoy se ofrecen en
términos de flexibilidad y rapidez de respuesta a los
cambios la red.
Efectos dinámicos.
Efectos del estado dinámico.
Efectos del análisis de contingencia.
Efectos de protección.
La estrategia que aplican las compañías
distribuidoras, cuando no está presente la acción de
los entes reguladores, es que se asuma a la GD como
recursos desfavorables, es decir como pequeñas
fuentes parásitas, a imponer reglas estrictas, con
muchos requisitos que afectarían al rendimiento y la
seguridad del sistema.
Por ello los sistemas de distribución deberán
someterse a profundos cambios en términos de
diseño, desarrollo y filosofía de operación.
2.12. Cambios en la Operación del Sistema
La regulación puede ser desarrollada en el sistema
de distribución bonificando las reducciones de
pérdidas que podría, incentivar al ingreso de GD,
con una buena ubicación, que puede ayudar en la
regulación de tensión en nodos donde se lo necesite.
Varios países de Latinoamérica, a más de los de la
Comunidad Europea de Naciones, están promoviendo
una revisión de éstas a estrategias.
3.1. Revisión Normativa que aplique a la
Generación Distribuida en el Ecuador
El desarrollo eficiente de la GD en un sistema
eléctrico de distribución, requiere que las regulaciones
proporcionen los incentivos adecuados, esto es que
reconozcan los beneficios y costos reales que la GD
impone al sistema. Los recursos de la GD reducirán
las pérdidas en las redes solamente si se localiza y
opera en forma adecuada. Lo mismo ocurre con
el potencial para regular el voltaje en la red o para
aumentar la confiabilidad en el suministro.
Figura 7: Nuevo concepto para Operar la Red [13]
La Generación Distribuida (GD) a pesar de ser
de alguna manera, un agente del mercado eléctrico
ecuatoriano, requiere que se postulen normativas
especiales y específicas para una mejor integración
entre los distintos agentes. Para que la GD evolucione
deben generarse los cambios correspondientes en
el marco normativo por medio de las Leyes que
fomenten y aseguren un proceso claro y consistente
para regular la generación eléctrica y principalmente
con energías renovables no convencionales.
Una nueva metodología para el control de tensión
en redes con GD es la que se muestra en la Fig. 7, la
cual permite el control en forma dinámica, para que
la GD proporcione una forma adicional de control de
tensión en las redes de distribución.
La conexión de varios generadores distribuidos en
la red y un control de despacho inteligente brinda
gran flexibilidad en el manejo de la energía reactiva
y el control de tensión.
El CONELEC, ha emitido varias regulaciones que
permiten la incorporación y dan algún impulso a las
ERNC [14]:
3. PERSPECTIVAS DE LA GD Y EVALUACIÓN
DE LA NORMATIVAS ACTUALES
1) Regulación N° CONELEC-006/08.- Reglas
comerciales de funcionamiento del mercado, el
cálculo y la aplicación de los pliegos tarifarios.
Entre los motivadores para el surgimiento de
la GD, están temas sobre la conservación de los
recursos naturales, la protección al medio ambiente
y la reducción de las emisiones de gases de efecto
invernadero, uno de más sensibles es el de la
producción de energía.
19
2) Regulación
N°
CONELEC-013/08.Normativa de contratos regulados del mercado,
las transacciones de corto y largo plazo, las
liquidaciones del mercado; los planes de
expansión del SNT y el uso ERNC.
3) Regulación N° CONELEC 001/09.Participación del auto - productor, (auto
- generador con cogeneración), en la
comercialización de la energía. Fomento de
cogeneración.
4) Regulación No. CONELEC 009/08.Registro de Generadores Menores a 1 MW,
procedimiento para ejecutar proyectos menores
a 1 MW, su operación no sea de emergencia.
5) Regulación No. CONELEC 002/11.Principios de excepción para la participación
privada en párrafo 2, artículo 2 de la Ley del
Régimen del Sector Eléctrico.
renovables fotovoltaicos e hidráulicos con el límite
de potencia de 50MVA.
Por el momento se lo que se conoce es que se
aplica el mismo pliego de condiciones de conexión
al sistema nacional de trasmisión por lo que hay
problemas de decisión por las distribuidoras, pues no
hay reglas completas para establecer los contratos de
conexión, al dar libre acceso sobre las instalaciones
no se establecen con procesos y detalles sobre las
responsabilidades del inversor y del distribuidor
beneficiado/ afectado.
El tratamiento preferente de generador no
convencional le permite el emprendedor acogerse a
pecios especiales en la Resolución CONELEC 072012 a la Reg. CONELEC 04-11(Tabla 1 actualizada),
y en base al Contrato estarán vigentes por 15 años,
lo que permite evaluar financieramente los proyectos.
Proyectos nuevos por excepción menores a 50MW
y que no constaren en el PME *Plan Maestro de
Electrificación del CONELEC; Calificados como
necesario y adecuado para satisfacer el interés público,
principalmente destinados a cubrir la demanda y
la reserva de generación. La concesión mediante
contratos y por un proceso público, con al menos los
siguientes requisitos:
La normativa de mercado debe conceder un
despacho preferente, pero con el límite de hasta en
un 6% de la capacidad operativa de la generación, lo
cual está fijando metas en la capacidad de absorción
del mercado eléctrico de esta producción con tarifas
superiores a la media.
3.2. Estado de aprovechamiento del concepto de
la GD en Ecuador
• Estudios presentados sean a nivel de pre
factibilidad.
• El proyecto propuesto no conste en el Plan
Maestro de Electrificación PME.
• Optimizar el recurso natural para generación
eléctrica y no se afecten los proyectos en el
PME.
• El costo de los proyectos no sea superior a los
costos promedios en los contratos regulados,
según la tecnología.
• Que el cálculo de la energía firme o energía
garantizada esté técnicamente sustentado.
Se han emitido algunas señales para una política
energética que apoya el desarrollo de la GD renovable,
pero aún se deben implementar regulaciones
específicas a nivel técnico, que atraigan al inversor y
sobre todo reconozcan los costos y beneficios reales
de la GD.
El aprovechamiento y la situación de la generación
distribuida en el escenario nacional ecuatoriano se
podrían resumir en los siguientes aspectos:
6) Regulación No. CONELEC 003/11.Determinación de los plazos y precios en
proyectos de generación y autogeneración de
iniciativa privada, incluyendo los de energías
renovables.
7) Regulación No. CONELEC 004/11.Energía producida con Recursos Energéticos
Renovables No Convencionales (ERNC).
Requisitos, precios, vigencia, y forma de
despacho al SNI.
• Ecuador es un Mercado eléctrico pequeño,
por ende como modelo de negocio que se lo
ha planteado para una integración vertical en
función de la economía de escala de un país
´pequeño.
• Hay la creciente necesidad de aumentar la
eficiencia de las inversiones, pues el modelo
que se ha implementado es de un negocio con
subsidiados.
• Siendo innegable su valor social, no se comete
un error al tomar el riesgo de mantener con
subsidios al uso de los combustibles y servicios
como el de energía eléctrica, pues esto impulsa
y aumenta el uso ineficiente.
No se ha podido identificar una legislación
específica sobre la Generación Distribuida en
Ecuador, excepto por las resoluciones, que impulsan
la incursión de algunos proyectos de energías
20
• Sin embargo de lo anterior, la utilización
de la GD como alternativa factible para la
planificación de la expansión de la red y de
diferimiento de inversiones es perfectamente
viable.
Es posible destacar algunas formas por las cuales la
GD puede ejercer una influencia efectiva y generar la
confianza en su aplicación y desarrollo:
• Aumentando la calidad de la energía y asegurando
suministro sin interrupciones. La GD puede
contribuir para en la calidad de la energía en áreas
congestionadas, al extremos de redes con tramos
largos, y en zonas donde se exige una elevada
calidad de energía.
• Se puede proveer capacidad de generación
local bajo el control de clientes que demandan
condiciones de servicio con cero interrupciones,
algo difícil de conseguir por la vulnerabilidad
natural de los sistemas en especial si predominan
las redes aéreas.
4. REQUISITOS DE NORMAS ESPECÍFICAS
LEGALES,
TARIAFARIAS
Y
DE
INTERCONEXIÓN DE GD EN EL ECUADOR
Un proyecto de GD que se lo desarrolle en base a
la regulación vigente de Ecuador, parte con algunas
barreras, al no disponerse de estudios completos de las
potencialidades de las fuentes de energías renovables,
no así por el lado hidráulico, pues sus potencialidades
identificadas, son muy grandes, pero con proyectos
que tienen dificultades de desarrollo, pues las fuentes
no siempre están cercanas a los centros de carga y con
ello, pierden la calificación de GD, por lo su elevada
inversión para conexión.
La GD puede desempeñar también un papel
importante como generación de emergencia en el caso
de interrupciones debido a accidentes naturales, evitando
largos periodos sin suministro de energía
El modelo de negocio y el análisis financiero en
base a los estudios técnicos y los precios preferentes,
permitirá definir la viabilidad de los proyectos, sin
embargo en el momento de analizar modelos de
integración por servicios auxiliares adicionales, ya no
se dan preferencias o señales de estímulo.
4.3. Condición de
protecciones
interconexión
y
de
las
Para los aspectos técnicos de interconexión se ha
establecido el libre acceso, pero todos los estudios de
conexión y costos de inversión relacionados son a su
cargo, sobre todo si no hay capacidad disponible en
la red, estos adicionales incrementan los costos del
activo y marginales.
4.1. Calidad y Condiciones Técnicas
Las principales condiciones técnicas de la GD
están en relación con la confiabilidad y calidad
del suministro, así como con las protecciones, la
medición, y los protocolos de funcionamiento de
la conexión y desconexión en isla y como también
la gestión de la potencia reactiva. La regulación de
voltaje, parpadeo (flicker), los armónicos y tensiones
de inyección de corriente continua, son claves para
determinar la calidad del suministro.
Figura 8: Posible ubicación de GD o punto común de
acoplamiento (PCA)
En referencia a la interconexión de la GD con el SD
se encuentra la siguiente acepción (IEEE P 1547):
Generación Distribuida (GD) es la Generación
eléctrica conectada a un área de sistemas de potencia a
través de un PCC (Punto de conexión de consumidor),
como un subconjunto de los recursos distribuidos RD.
4.2. La GD y la Confiabilidad [2]
Las protecciones merecen un análisis por separado,
pues su objetivo es la protección del sistema de
potencia.
Hay tres puntos de vista a considerar en búsqueda de la
confianza de la Generación Distribuida:
La conexión de GD a una red de distribución
introduce una fuente de energía y ello puede aumentar
el "nivel de falla" en la red lo que puede complicar la
detección y aislamiento de fallas. En una red urbana
• El punto de vista de cada cliente individual
• El de un grupo de clientes y la distribuidora
• El del mercado y los operadores del sistema.
21
típica, la GD puede estar conectada a niveles de tensión
que van desde la baja tensión (120-240 V monofásica)
hasta los valores de subtransmisión (69 kV y otros).
• El interruptor de circuito en el punto de
interconexión con la red, será capaz de
interrumpir la corriente máxima de falla
disponible.
• Por seguridad se deberá proveer a su sistema
de un dispositivo manual de desconexión,
bloqueado en la posición de abierto y accesible
para el personal de la distribuidora
• La instalación de interconexión no deberá
comprometer la calidad de servicio del sistema
eléctrico y las tecnologías asociadas.
Las condiciones de conexión en la subtransmisión
son complejas, pero son analizadas previamente,
mientras que las conexiones a baja y media tensión (en
el orden de cientos de voltios y los kilovoltios), pueden
ser más difíciles de resolver, sobre todo si implican
inyecciones netas en la red. (Ver Fig. 9).
El objetivo del estudio de las protecciones, en
presencia de GD es para mantener el nivel preexistente de fiabilidad de la red, así como la seguridad
y la calidad, con un respaldo de seguridad razonable.
4.5. Requisitos generales de interconexión
La GD debe acatar los procedimientos formales,
lo que asegurará una base técnica sólida para la
interconexión activa propuesta.
Los procedimientos técnicos y aplicación siguientes
se resumen como los principales:
1.
2.
Figura 9: Complejidad e interacción entre la GD y el SEP
3.
4.
4.4. Normas técnicas de interconexión GD.
Principios fundamentales [13]
5.
6.
Las condiciones de interconexión se rigen por uno
o más de los siguientes principios:
7.
• Evitar todo riesgo para la seguridad al público
y estará equipado con equipo de protección
que evite que el generador de esté conectado a
un circuito sin tensión de la distribuidora.
• La instalación de la GD no debe comprometer
la confiabilidad o limitar la capacidad operativa
del sistema eléctrico de la distribuidora que la
acoge.
• El equipo de protección impedirá disparos
intempestivos de los interruptores del sistema
de distribución que afecte a la fiabilidad del
mismo.
• Deberá estar dotada de equipo de protección
que impida el intento de conexión y
funcionamiento en paralelo y operar dentro de
los límites normales.
• Para fines operacionales, la distribuidora
puede requerir que esté instalado un sistema
de comunicación. Por un medio establecido de
mutuo acuerdo.
Disponer de diseños del proyecto en su etapa
planificación (factibilidad) y del diseño
definitivo aprobado y presupuesto de equipos
y los de interconexión.
La aprobación de dichos estudios por la entidad
competente, según lo señale el ente regulador.
Permisos de inicio de construcción.
La construcción de la interconexión según la
planificación y el registro de planos durante la
fase de aplicación del proyecto.
Verificación de las pruebas y puesta en marcha
de pruebas de la fase de construcción completa.
Acuerdos con el distribuidor y puesta en
funcionamiento de la interconexión.
Prácticas de operación (Manual de operación)
y mantenimiento, y el registro del desempeño
del sistema de interconexión, durante la vida
útil.
4.6. Requisitos para interconexión de la GD por
las Distribuidoras
Las regulaciones y normativas desarrollan unos
requisitos de conexión referidos a:
a)
Sobre Regulación de tensión: contar con
equipos y procesos que permiten al operador
del sistema de distribución mantener una
tensión más o menos constante a pesar de las
variaciones que se producen normalmente
por cambios en las cargas, variabilidad de las
fuentes primarias.
b) Integración con la puesta a tierra de la red
de distribución: las unidades de GD deben
estar conectadas a tierra siguiendo las
22
recomendaciones que les sean de aplicación
para evitar sobretensiones a lo largo de la
línea.
c) Desconexión del sistema ante interrupciones
en la red eléctrica distribuida: en caso de que
se produzca un suceso de estas características,
el equipo de GD no puede suministrar
corriente, y en consecuencia, energizar la
línea de la compañía de distribución.
d) Sistema de sincronización de la GD con la
red.
e) El equipo de GD, no puede inyectar
armónicos, ni corriente continua, por encima
de unos umbrales definidos.
4.8. Estrategias para impulsar la GD. El Marco
Legal y de interconexión planteado. [17][19]
Con la estructuración en un mercado único por el
Mandato 15, se deben generar las disposiciones que
faciliten la incursión en proyectos de GD.
• Está establecido el Libre acceso a las redes
(Decreto Ejecutivo 1626 publicado en R.O. No.
365 de 10 de julio de 2001)
• Están definidas unas tarifas de energía (Reg.
04/2011 y sus resoluciones de actualización).
• Las señales Tarifarias están dadas (las
regulaciones deben ser actualizadas y detalladas
en conjunto con disposiciones organizadas).
• En este nuevo ambiente puede crecer el interés
por la generación distribuida, pero faltan
incentivos desde el punto de vista de la política
de gobierno, es decir generar las seguridades
a la inversión. Contratos a plazo (se acaba de
emitir la Regulación 04/2011- Resolución 23012 contrato Compra venta Plazo 15 años)
• Pero no hay reglas definidas para reconocer la
conexión y uso de la red punto de entrega, como
sus estudios de impacto, por lo que deben ser
implementadas.
4.7. La Regulación Técnica de la GD en Ecuador
[15]
La normativa vigente para conexión es orientada a
la conexión en el sistema de transmisión, se requiere
una normativa específica para los medios que aspiran
a la conexión en los sistemas de subtransmisión(S/T) y
distribución (SD).
Para los medios de generación <1MW se simplifica
el proceso de registro de permisos de conexión, pues
la regulación es simple y no señala que se conectará
al sistema de distribución más cercano, pero no se
establecen las condiciones y que políticas guiarán
los estudios técnicos de penetración, dispersión y
condiciones técnicas de interconexión.
Por lo analizado, los posibles requisitos que un
marco regulatorio incorpora para transparentar los
aspectos de una concesión de medios de generación
distribuida mediana y pequeña, son:
• Se debe empezar por redefinirla desde el punto
de vista de recurso de energía distribuido
(DER).
• También deberá prepararse una regulación que
defina exactamente los recursos de energía
distribuida (DER) o generación distribuida
(GD).
• Hará diferencia entre la conexión a media
tensión o subtransmisión.
• Establecer los rangos de potencia mediante
estudios y simulaciones técnicas de acuerdo a
la realidad de los sistemas de subtransmisión y
distribución
• La Definición puede incluir la operación, así
como los objetivos y alcance de las normativas
de conexión, con todos los requisitos de
protección, confiabilidad y calidad de energía.
Figura 10: : Diagrama: Análisis Estratégico para Estructurar
La GD [16].
No debe escapar al inversor el tener la información
de las características del sistema de distribución para
que el impacto sea positivo tanto que los beneficios
superen a las barreras que se le presentarán al proyecto.
Con ayuda del diagrama de la Fig. 10, se sugieren
los pasos de cómo hacer un análisis estratégico y
financiamiento, el cual puede verse que parte de
políticas del gobierno, no solo serán para el impulsar
la iniciativa, sino también para brindar las señales de
confianza al inversor.
23
4.8.1
Características relevantes del Modelo de
Negocio de la GD
Tabla 3: Rango y Costos de inversión por unidad GD
Todos los agentes involucrados en las empresas
del sector industrial y residencial, las comunidades y
las instituciones financieras, deben estar conscientes
de la necesidad de identificar todas las instancias que
requiere el desarrollo de un proyecto de GD.
El crecimiento del mercado y evolución técnica
mundial en los generadores aplicados a la GD, y la
oferta–demanda, impulsan una importante disminución
de los precios.
En la evaluación económica para el ingreso de
tecnología de GD hay que tener en cuenta:
4.9. Barreras que encuentra la GD
Conocer las barreras típicas que encuentra la
GD, permitirá identificar las acciones que se deben
emprender, agrupadas de la siguiente manera:
• Precio de la energía producida por la GD versus
el de venta al distribuidor o al Mercado.
• Ventajas de la reducción de costos de la GD y el
riesgo asociado con consumo de energía.
• El precio por servicios auxiliares ofertados, el
incentivo a la reducción de congestión en la red
de distribución y los costos de inversión en la
red al introducir unidades de GD.
• Precios de mercado y la flexibilidad de
tecnologías que se pueden emplear en GD.
• Establecer el monto y % del valor de otros
servicios que puede ofrecer la GD a los
consumidores, incluyendo la confiabilidad en
suministro.
•
•
•
•
Regulatorias y Normativas
Barreras Técnicas
Económicas y Financieras
Sociales
4.10. Acciones y desafíos para la investigación y
regulación [17][20]
Para dar soluciones consistentes y en especial a las
de tipo regulatorio, se recomiendan acciones como:
• Implementar un nuevo modelo de expansión
del sistema eléctrico, no solamente centrado en
los grandes proyectos hidroeléctricos.
• Revisar y simplificar la Normatividad
Ambiental.
• Promover Políticas Estatales de Fomento a la
cogeneración (CHP) y eliminar restricciones
legales.
• Racionalizar y simplificar los procedimientos
para la obtención de la concesión.
• Utilizar sistemas modernos de Supervisión
y Control y racionalizar los programas de
mantenimiento.
• Revisar, Actualizar y Aprobar las tarifas de
servicios públicos y los incentivos regulatorios
para adaptarse al nuevo modelo de energía
distribuida.
• Establecer la solución de controversias para
acelerar los procesos para proyectos de
generación distribuida.
• Definir y detallar las condiciones necesarias
para que el derecho a interconectarse, para
todos los actores y en condiciones convenientes
para las partes (Definiciones y modelos de
la GD, Norma de Interconexión, Contrato de
Conexión, Calidad de servicio).
ANÁLISIS ECONÓMICO
Se procede a realizar un análisis del valor económico
actual (expresada Tasa interna de retorno TIR). Los
datos o entradas podrían ser:
Ubicación, tamaño, vida útil, precio de instalación
(lleve en mano) Tabla 3, tarifa – prima (Feed-in Tariff),
Descuento relación de rendimiento, perdida/descuento
de rendimiento anual de la tarifa, Costos O&M, costos
de seguro, impuestos y la tasa de descuento.
El ahorro en los sistemas de transmisión y
distribución con la GD, es amplio y de $2,00 a $60,00
que también genera señales en la inversión por cada
MWh evitado de producir, y también redunda en la
postergación de entrada de nuevas subestaciones.
Por otro lado, estudios aplicados a los sistemas de
transmisión y distribución, detectan pérdidas técnicas
entre 4 y 7%. El potencial ahorro en la inversión para
expansión en los sistemas de transmisión y distribución
con la GD es de entre 2,30 y 3,15 dólares economizados
por cada MWh producido
24
Los beneficios destacados del Proyecto:
4.11. El futuro del SEP y la integración con la GD
En el futuro las redes eléctricas irán hacia las Smart
Grids, para lo que irán evolucionando de ser solamente
un concepto, a ser una realidad y adoptar nuevas
tecnologías para luego con los nuevos desarrollos
en interconexión ofrecer las mejores ventajas en la
operación, para la óptima solución de condiciones de
aporte de energía al SEP.
• Contribuye a cubrir la demanda, con la vertiente
occidental.
• Es un aporte seguro de producción energética
para el mercado eléctrico.
• Contribuye en la reducción de los precios de
energía.
Los estudios de impacto en las redes de distribución
de la CENTROSUR incluyen:
La red debe maximizar su capacidad de transporte,
no por el simple hecho de repotenciarla, sino
asumiendo los retos frente a nuevos escenarios que se
le ofrecen. La evolución de un concepto que partiendo
de la gestión y mejora tecnológica llega a optimizar la
operación de la red.
• Análisis de flujos de potencia.
• Contingencias para diferentes escenarios
• Perfiles de tensión en los modos principales del
sistema de S/T.
• Escenarios con demanda máxima y mínima
para determinar impacto de las pérdidas en el
Sistema de Distribución.
Estos impulsores son parte de un concepto que
apuntan a definir la realidad de tener embebida la
generación de energía eléctrica en la red.
4.13. Resultados para el año de entrada en
operación de Ocaña
Las tecnologías a desarrollar para evolucionar
hacia una automatización y control, que comprende lo
siguiente:
Ocaña ocasiona un incremento de 0,84% en las
pérdidas de la CENTROSUR, llegando a un total de
8,14%, valor que estaría por encima del comprometido
en sus metas del año 2012. La inclusión de la línea
Sinincay-Cañar, ocasionó que el incremento llegue
sólo al 0,24%, dando un total de 7,54%, que influiría
levemente en el performance de la empresa.
• Desarrollo de sensores para la operación de la
red.
• Sensores para la automatización del
mantenimiento en las redes.
• Contadores inteligentes con comunicación
bidireccional.
Las pérdidas originadas por la inclusión de Ocaña
pudieron representar un costo anual adicional de
$440.366 dentro del rubro compra de energía y
corresponde al monto que la CENTROSUR debía
pagar por compra adicional de energía (a 57,7$/MWh),
esto en el caso de que no se construya la línea Sinincay
– SE 18 Cañar.
4.12. Interconexión al Sistema de Distribución de
la central Ocaña
Puesta en operación en 2012, ELECAUSTRO S.A.
Características básicas de la Mini Central:
• Ubicación: Provincia Cañar, cotas 845 y 458
msnm.
• Captación: Diseñada para un caudal 8,20 m3/s.
• Tubería presión: Superficial de longitud de
1.085 m.
• Casa de Máquinas: Caída neta 373 m.
• Capacidad de la Central: 26 MW (2 x 13 T.
Pelton).
Considerando que la entrada de Ocaña se retrasó
y por los problemas imprevistos en su sistema de
conducción, la operación se redujo a 5 meses durante
2012, lo que representó un monto de pérdidas de:
183.485 $/año
Posteriormente, con la inclusión de la línea SinincayS/E 18, este valor se estableció en 126.824 $/año,
obteniéndose una reducción de $313.542/ año
Tabla 4: Energía generada y factor de planta.
5. CONCLUSIONES Y RECOMENDACIONES
El modelo de GD varía de país en país, dependiendo
de sus necesidades y características, lo que depende del
propio sistema. Hay variaciones en cuanto a tamaños,
fuentes y niveles de voltaje.
25
La GD es parte del nuevo modelo de negocio lo exige
que se revisen temas como: modelos de concesión,
impactos en la red, medidas para de mitigación de
riesgos, los vehículos eléctricos híbridos, dispositivos
de almacenamiento, micro redes inteligentes.
Ecuador ha recurrido a los incentivos de precio,
a través de la feed-in tariff, siendo, que al tener un
mercado de precio fijo, será el mercado que asuma la
diferencia de costos, al tener un fuerte componente
hidráulico de bajo costo, no hay afectación al usuario.
Un marco regulatorio que no reconozca y especifique
las diferencias entre la generación centralizada y la
generación distribuida, no reconoce el valor agregado
de la GD, ello dificultará que ésta prospere.
Los estudios realizados para analizar el impacto a
la red, tanto en el caso de la subtransmisión (Central
Ocaña) como de media tensión (Biogás EMAC),
permiten destacar que un aumento del nivel de
penetración, impacta en los voltajes, cumpliendo la
característica de linealidad y superposición de los
circuitos eléctricos.
La GD puede llegar a ser el insumo y aporte necesario
para a mejorar la fiabilidad de la red, aumentar la
reserva de suministro de la energía, reducir los costos,
aumentando el número y los tipos de generadores
disponibles e incluyendo el desarrollo de los recursos
no contaminantes de energía alternativa.
En el caso práctico de Ocaña el % de Penetración,
tiene un alto impacto en las perdidas obligando a la
distribuidora a buscar mecanismos para reforzar su
sistema de subtransmisión, con aporte mínimo del
generador, e importante y positivo por el transmisor
que ha facilitado la nueva posición para inyección al
SNI.
La integración en gran escala de generación
distribuida en la red de distribución crea un problema
técnico, económico y regulatorio complejo que requiere
soluciones innovadoras y debe buscar establecer reglas
claras desde un inicio.
El resultado del impacto de las pérdidas en el caso
de Ocaña, es negativo en las pérdidas, no así en cuanto
a la tensión que impacta positivamente pero con riesgo
de sobre elevación.
Al incorporar GD en el sistema de Distribución,
el nivel de dispersión mejora y de acuerdo a la carga
conectada a las barras de la red, se puede generar una
distribución equitativa de la inyección de potencia,
originando un comportamiento equilibrado del sistema
en sus perfiles de tensión, más la disminución en la las
pérdidas.
En el Proyecto Pichacay de Biogás, el nivel de
penetración bordea el 50%, que significa un impacto
positivo en pérdidas y en nivel de tensión. Resta por
ver que cumpla que la interconexión no afecte la
estabilidad del sistema en condiciones normales y de
contingencia; pues al no haber normas específicas en
el país cabe la aplicación de normas internacionales.
La fijación de filosofías y esquemas de protección,
del SEP pueden variar debido a la introducción de
GD y al impacto de la GD en el sistema eléctrico de
distribución: Flujos de potencia, pérdidas, variaciones
de tensión, niveles de fallo, etc.
REFERENCIAS BIBLIOGRÁFICAS
[1] J. M. A. J. B.-A. J. Y. L. J. D. N. A.A. Bayod Rújula,
Definitions for Distributed Generation: a revision,
Zaragoza: Department of Electrical Engineering
Centro Politécnico Superior, University of
Zaragoza.
El panorama de los requisitos de interconexión
seguirá siendo un reto en los próximos años, la
normativa de IEEE es un instrumento de alto nivel
técnico y puede ser adoptado ampliamente por las
empresas y la industria, al no contar con estudios
técnicos y normativa local.
[2] I. (. E. Agency), DG in Liberalised Electricity
Markets, 2002.
Con el advenimiento de sistemas de control
inteligentes integrados en nuevas unidades de GD,
las tareas de control en los centros de operación de la
distribución serán más simples.
[3] W. G. 3. CIGRE, Impact of Increasing Contribution
of Dispersed Generation on the Power System,
1999.
[4] N. A. R. C. P. y. S. G. Jenkins, "Embedded
Generation” The Institution of Electrical Engineers.,
2000.
La integración de una creciente proporción de la GD
en la red de distribución requiere una comprensión y
aceptación completa, de todos los actores de su impacto
en la distribución y su interacción con las cargas.
26
[5] R. D. M. P.P. Barker, Determining the impact
of DG on power systems. I. Radial distribution,
Proceedings of the Power Engineering Society
Meeting IEEE, vol. 3, 2000, pp. 1645–1656.
[16] CONELEC, Inventario de recursos Energéticos del
Ecuador con fines de Generación Electríca, www.
[email protected], 2009.
[17] h. A J Wright & J R Formby, “Overcoming barriers
to scheduling embedded generation to support
distribution networks”.
[6] ]. G.-L. a. C. Fortoul., “Review of Distributed
Generation Concept: Attempt of Unification”
International Conference on Renewable Energies
and Power Quality (ICREPQ´05), España, 16-18
March 2005.
[18] C. Richard, Regulatory Assistance Project on
Distributed Resource Policies “Distributed
resources and electric system reliability”,
septiembre 2001. .
[7] K. Angelopoulos, Integration of Distributed
Generation in Low Voltage Networks: Power
Quality and Economics, Glasgow, 2004.
[19] J. M. a. G. B. G.W. Ault, Strategic analysis
framework for evaluating distributed generation
and utility strategies IEE Proc.Gener. Transm.
Distrit.. Vol 150, No. 4, July 2003.
[8] A. G. S. L. A. Thomas, Distributed generation: a
definition, Electric Power Syst. Res. 57 (3), (2001)
195–204..
[20] B. P. J. C. S. U. d. C. Prof. Roberto C. Lotero
Unioeste Foz de Iguaçú, Incentivos a la Generación
Distribuida en la Planificación de la Red de
Distribución, España, 17 de junio de 2009.
[9] I.-S. S. Board, IEEE 1347 Standard for
Interconnecting Distributed Resources with Electric
Power Systems Standards, IEEE-SA Standards
Board, Approved 12 June 2003.
[10] 1001, IEEE Standard, “Guide of Interfacing
Dispersed Storage and Generation Facilities with
Electric Utility Systems”,, New York., (1988)..
Edgar Fernando Durán Contreras.Jefe
de
Departamento
de
Distribución Zona 1 - EE
CENTROSUR, Universidad de
Cuenca: Ingeniero Eléctrico.
Master en SEP; Docente en la
Universidad Politécnica Salesiana
- Facultad de Ingeniería Eléctrica;
dicta las materias de SEP I, Diseños de Sistemas de
Distribución I y II, Electrotecnia I y II, Circuitos
Eléctricos I y II, Luminotecnia. Docente de Seminarios
de Distribución para ECUACIER.
[11] F. Gonzalez-Longatt, UNEFA, Universidad
Nacional Experimental Politécnica de la Fuerza
Armada Nacional, Departamento de Ingeniería
Eléctrica Núcleo Maracay,, 2122 Maracay
(Venzuela) e-mail: [email protected],, 2008.
[12] P. Dunsky, Cogeneration and On-Site Power
Production. COSPP,, (2000).
[13] M. I. M. V. I. T. D. L. I. C. M. I. R. M. I. R. C. Dr.
Ing. Gonzalo Casaravilla, PROYECTO PDT S/C/
OP/16/04 ”Generacion Distribuida En El Uruguay:
Evaluacion De Fortalezas, Oportunidades Y
Tratamiento Regulatorio, Ute, Ursea: Iie-Udelar,
Junio de 2006.
[14] www.conelec.gob.ec.
[15] C. N. d. Electricidad, Plan Maestro de
Electrificación,Quito-Ecuador www.conlec.gob.ec,
2009-2020.
27
Identificación de Fallas Críticas en el Sistema Nacional Interconectado
del Ecuador y Diseño de un Esquema de Protección Sistémica
V. Flores
J. Iza
Centro Nacional de Control de Energía, CENACE
En el proceso de planificación de la operación para
el corto y mediano plazo, se determinan los límites
operativos, mediante análisis estáticos y dinámicos,
asegurando que en operación normal el despacho
de generación abastezca toda la demanda, mantenga
la reserva rodante de generación requerida, que los
valores de los voltajes y frecuencia de operación se
mantengan dentro de los límites establecidos, y que
los flujos de potencia por los elementos de transmisión
no superen los límites de operación normal declarados
por los propietarios.
Resumen— En el presente documento se presentan
los criterios y metodología utilizados para evaluar
las contingencias simples y dobles en el sistema
eléctrico ecuatoriano que opera interconectado
con el sistema eléctrico colombiano, e identificar
aquellas contingencias que pueden provocar la
pérdida de estabilidad.
Con la finalidad de mantener la estabilidad del
sistema eléctrico ecuatoriano, ante la ocurrencia
de fallas críticas, evitando que se produzcan
colapsos totales o parciales en el Sistema Nacional
Interconectado, en el presente trabajo se describe
la conceptualización para el diseño del Sistema de
Protección Sistémica SPS.
Desde el punto de vista de seguridad del sistema
eléctrico de potencia, y considerando que los mismos
están conformados por un gran número de elementos,
es importante el análisis de contingencias, con la
finalidad de determinar los efectos que se producen
sobre el sistema, ante la salida intempestiva de
elementos y su capacidad para encontrar un nuevo
punto de operación estable.
Palabras clave— Sistema de Protección Sistémica,
contingencia, estabilidad, sistema de transmisión,
seguridad, flujos de potencia.z
Abstract— This paper presents the criteria and
methodology used to evaluate simple and double
contingencies in the Ecuadorian electrical power
system,which operates interconnected with the
Colombian power system, and to identify those
contingencies that could lead to a loss of stability.
2. OBJETIVOS DEL ESTUDIO
• Identificar las contingencias críticas en el
Sistema Nacional Interconectado Ecuatoriano
S.N.I. y las causas de la pérdida de estabilidad,
considerando la operación interconectada con
el sistema eléctrico colombiano.
• Minimizar los riesgos de colapsos totales y
parciales en el sistema eléctrico ecuatoriano
ante contingencias N-1 y N-2.
• Diseñar un Sistema de Protección Sistémica
a ser implementado en el sistema eléctrico
ecuatoriano, que permita mejorar la
confiabilidad y seguridad del mismo,
aprovechando el desarrollo de nuevas
tecnologías.
This study describes the design concept for the
Systemic Protection Scheme (SPS) proposed to
maintain the Ecuadorian power system’s stability
during potential critical faults, preventing a total
or partial collapse of the National Interconnected
System.
Index Terms— Systemic Protection Scheme,
Contingency, Stability, Transmission System,
Security, Power Flows
1. INTRODUCCIÓN
3. DEFINICIONES
El crecimiento de la demanda y la lenta expansión
de los sistemas de transmisión y generación, han
provocado que los sistemas eléctricos de potencia
operen cerca de sus límites de estabilidad, lo que
implica una operación con riesgo desde el punto de
vista de la seguridad y calidad eléctrica.
3.1. Contingencia
Se entiende por contingencia al evento en el
cual uno o más elementos del sistema eléctrico de
potencia (líneas, transformadores, generadores,
cargas) son retirados o salen de manera súbita de
servicio por causas imprevistas.
28
3.2. Análisis de Contingencias
3.7. Sistema de Protección Sistémica (SPS)
En el análisis de contingencia se determinan los
efectos de un evento sobre el sistema eléctrico y su
capacidad de encontrar un nuevo punto de operación
estable, considerando la salida intempestiva de uno o
más elementos, mediante el análisis de la cargabilidad
por las líneas de transmisión y transformadores de
potencia, los voltajes en las barras, las desconexiones
de carga, corrientes de cortocircuito excesivas, entre
otras [1].
Se define como SPS a un sistema automático,
integrado por un conjunto de elementos de protección,
control y redes de comunicaciones, que actúa ante
la ocurrencia de eventos predefinidos (la salida
intempestiva de uno o más elementos de un sistema
eléctrico), mediante acciones de desconexión de
carga, disparo de generación, cambios topológicos,
etc., con la finalidad de evitar o mitigar problemas de
inestabilidad.
3.3. Fallas Críticas
Considerando que los problemas de inestabilidad
pueden producirse en un tiempo muy corto (en el orden
de milisegundos), el SPS se caracteriza por los tiempos
de respuesta sumamente rápidos [2].
Se califican como fallas críticas a aquellas
contingencias que provocan uno o más de las
siguientes condiciones en el sistema eléctrico:
• Inestabilidad del sistema eléctrico.
• Eventos en cascada.
• Violación de los límites de voltaje
emergencia.
• Violación de los límites de cargabilidad
líneas de transmisión y transformadores
potencia.
• Desconexiones de carga inaceptable en
sistema eléctrico.
4. ANÁLISIS
DE
CONTINGENCIAS
E
IDENTIFICACIÓN DE LAS FALLAS
CRÍTICAS
de
4.1. Consideraciones
de
de
• Las contingencias a ser analizadas se
seleccionan bajo los siguientes criterios:
• Salida intempestiva de un circuito de las
líneas del anillo de 230 kV del SNI.
• Salida intempestiva de un transformador del
anillo de 230 kV del SNI.
• Salida intempestiva de dos circuitos de las
líneas del anillo de 230 kV que comparten la
misma torre.
• Salida intempestiva de un circuito del
corredor Santa Rosa – Vicentina – Mulaló –
Ambato - Totoras de 138 kV.
• Los límites de voltaje de operación normal
y de emergencia vigentes para el sistema
eléctrico ecuatoriano [3]:
el
3.4. Operación Normal
Es un régimen de operación permanente que
satisface los requerimientos de calidad de servicio,
sin poner en riesgo las instalaciones y seguridad del
sistema, y que responde a los planes operativos de
corto plazo elaborados por el CENACE. [1]
3.5. Sistema Nacional Interconectado (SNI)
Es el sistema integrado por los elementos del
sistema eléctrico ecuatoriano, conectados entre sí, el
cual permite la producción y transferencia de potencia
eléctrica entre centros de generación y centros de
consumo, dirigido a la prestación del servicio público
de suministro de electricidad. [1]
Tabla 1: Límites de voltajes vigente
3.6. Sistema Nacional de Transmisión (SNT)
Corresponderá al conjunto de instalaciones de
transmisión del SNI, incluyendo el equipamiento
de compensación, transformación, protección,
maniobra, conexión, control y comunicaciones,
tanto existentes como aquellas que se incorporen
como resultado de expansiones efectuadas en los
términos del Plan de Expansión aprobado por el
CONELEC, destinadas al servicio público de
transporte de energía eléctrica, operado por la
empresa única de transmisión. [1]
• Los límites de operación normal y de emergencia
para las líneas y transformadores del sistema
de transmisión declarados por CELEC EP
TRANSELECTRIC [4].
• Los ajustes del Esquema de Separación de
Áreas en el enlace de Interconexión Colombia –
Ecuador [5].
29
4.2. Metodología
Tabla 2: Contingencias Simples
• El análisis de contingencias N-1 y N-2 se
realiza en estado estable, para los escenarios
de generación de alta y baja hidrología, para
los períodos de demanda mínima, media y
máxima.
• Se analizan los resultados, con énfasis en las
contingencias cuyos valores de voltaje y/o
de los flujos de potencia violan los límites de
emergencia.
• Se identifican las contingencias cuyo flujo
de potencia no tiene convergencia en estado
estable.
• Se realiza el análisis dinámico de las
contingencias en las cuales se presentan
violaciones de los límites de emergencia de
voltaje y/o cargabilidad, de los elementos
del sistema eléctrico ecuatoriano, y en las
contingencias en las que no existe solución en
estado estable.
• Con los resultados de los análisis dinámicos,
se determinan las contingencias simples o
dobles que producen violaciones a los límites
de voltaje y/o cargabilidad de los elementos
de transmisión, y a también la pérdida de
estabilidad del sistema eléctrico ecuatoriano,
exponiéndole a colapsos totales o parciales. A
este grupo de contingencias se les denominan
“Fallas críticas”.
4.3. Herramienta para el Análisis de Contingencias
Para la validación eléctrica de la planificación de la
operación del sistema eléctrico ecuatoriano, operando
sincronizado con el sistema eléctrico colombiano, la
Corporación Centro Nacional de Control de Energía
- CENACE, utiliza el programa computacional
DigSilent PowerFactory, en el que se modelan los dos
sistemas eléctricos, por lo que se selecciona como la
herramienta de análisis de contingencias simples y
dobles, tanto en estado estable como dinámico.
A continuación se listan las contingencias simples
y dobles analizadas:
30
Tabla 3: Contingencias Dobles
4.4. Resultados del Análisis de Contingencias
5. DISEÑO DE UN SISTEMA DE PROTECCIÓN
SISTÉMICO - SPS
De los resultados del análisis de contingencias
N-1, se verifica que en ningún caso se presentan
violaciones a los límites de emergencia de voltaje
o de la cargabilidad de líneas de transmisión o de
transformadores, que no pueda ser solucionado con la
intervención del Operador en tiempo real.
Para evitar el colapso del sistema eléctrico
ecuatoriano ante la ocurrencia de las contingencias
N-2, fallas críticas, indicadas en la tabla anterior, se
requiere realizar el diseño e implementación de un
Sistema de Protección Sistémica, que sea capaz de
prevenir la actuación del Esquema de Separación
de Áreas, de corregir bajos voltajes, de eliminar la
sobrecarga de los elementos del Sistema Nacional
Interconectado y evitar la condición de fuera de
paso entre los sistemas eléctricos colombiano y
ecuatoriano.
Del análisis de contingencias N-2, en estado
estacionario, se identifica las contingencias en las
cuales se presentan violaciones a los límites de voltaje
y/o cargabilidad de elementos de transmisión, o la
falta de convergencia; mediante análisis dinámico se
confirma la presencia de problemas operativos ante
la contingencia N-2 y se determinan los problemas
eléctricos que ocasionan en el SNI.
La apertura del anillo de 230 kV, producto de la
salida intempestiva de una línea de transmisión en
el norte del país, da lugar a altas transferencias por
los elementos del corredor Totoras – Ambato- Pucará
– Mulaló –Vicentina 138 kV, que a la vez provoca
la salida por sobrecarga de la línea de transmisión
Ambato – Totoras 138 kV, bajos voltajes en todo el
sistema y la separación angular entre los sistemas
eléctricos ecuatoriano y colombiano.
A continuación se listan las contingencias N-2, fallas
críticas, que ante su ocurrencia generan problemas de
estabilidad en el sistema eléctrico ecuatoriano, y por
lo tanto se requiere que sean integradas en un Sistema
de Protección Sistémica.
Tabla 4: Fallas críticas
De los análisis realizados se concluye que los
efectos negativos descritos, son posibles de mitigar
o eliminar, al disminuir la generación de la central
hidroeléctrica Paute y/o de la central hidroeléctrica San
Francisco; y, con la finalidad de mantener el balance
de generación – carga y evitar las bajas frecuencias,
se hace necesaria la desconexión automática de carga,
estratégicamente seleccionada para cada una de las
contingencias, fallas críticas.
El éxito de la actuación del SPS se alcanza,
siempre y cuando se logre mantener interconectado el
sistema eléctrico ecuatoriano con el sistema eléctrico
colombiano, evitando en todo instante la actuación
del Esquema de Separación de Áreas - ESA (se
considera que el ajuste de tiempo por bajo voltaje de
ésta protección es de 500 milisegundos).
El SPS, considerando las acciones de verificación
y envío de comandos para ejecutar las acciones de
mitigación, en varios casos no será capaz de evitar
que se presenten sobrecargas en los elementos de
transmisión de manera transitoria, por lo que las
protecciones por sobrecarga de los elementos de
transmisión no deben actuar antes que el opere el SPS.
El tiempo de actuación del Sistema de Protección
Sistémica, debe ser menor al tiempo crítico para cada
una de las contingencias, el mismo que se determina
en el punto 5.2.
31
Las acciones de mitigación para cada falla crítica
se determinan en base a la formulación de un
algoritmo (polinomio), que puede depender del flujo
de potencia del o los elementos que salen de servicio
en forma intempestiva y/o de otros elementos de la
red de transmisión, formulación a partir de la cual
se determina la cantidad de carga a ser desconectada
y/o el rechazo de generación necesaria, para llevar el
sistema a un nuevo punto de operación estable.
A continuación se resumen las acciones de
mitigación para cada una de las contingencias.
Tabla 5: Acciones de mitigación para cada falla crítica
Figura 1: Arquitectura del SPS
5.2. Características del Sistema de Protección
Sistémica
• El SPS debe actuar ante la ocurrencia de las
contingencias predefinidas.
• Una vez ocurrida una de las contingencias ante
la cual el SPS actúa, el tiempo de ejecución
de las acciones de mitigación debe ser menor
a la pérdida de estabilidad del sistema, y al
tiempo de actuación del ESA, es decir menor
al tiempo crítico definido.
• Para el sistema eléctrico ecuatoriano, el tiempo
crítico de actuación del SPS se ha determinado
en aproximadamente 200 milisegundos. Este
valor se determina en base a: el tiempo de la
actuación de la protección del elemento una
vez ocurrida la falla, el tiempo que le toma al
relé de monitoreo recibir la señal del elemento,
el tiempo de retardo en el envío de datos de
los relés de monitoreo al sistema central, el
tiempo de procesamiento del sistema central,
el tiempo para el envío de datos del sistema
central a los relés de mitigación, el tiempo de
envío de la señal de disparo de los relés de
mitigación y la desconexión de los elementos
de generación y carga
5.1. Arquitectura General del SPS
El Sistema de Protección Sistémica debe estar
integrado por dispositivos de control y protección en
las subestaciones (relés de monitoreo y mitigación),
sistemas de control centralizados (toma de decisiones)
y redes de comunicación, todas de manera redundante.
En Fig. 1 se presenta el diagrama general de la
arquitectura del SPS.
En la Fig. 2 se presenta gráficamente la cadena de
distribución de tiempo de operación del SPS.
32
• El sistema de protección sistémica no
reemplaza la expansión de los sistemas de
transmisión y generación, este es una solución
de corto plazo para los problemas de la red.
• El diseño del sistema de protección sistémica
propuesto considera en su arquitectura la
dinámica de los sistemas eléctricos de potencia
y permite modificaciones, considerando
cambios topológicos como resultado de la
expansión del sistema.
• El sistema de protección sistémica analizado,
considera algoritmos en base a la red extendida,
anillo troncal de 230 kV del SNI, no considera
algoritmos para áreas locales.
Fuente: Special Protection System Specification Document Quanta
Figura 2: Distribución del tiempo del SPS
REFERENCIAS BIBLIOGRAFICAS
6. OPERABILIDAD DEL SPS
[1] REGULACIÓN No. CONELEC - 003/08,
“Calidad del Transporte de Electricidad y del
Servicio de Transmisión y Conexión en el
Sistema Nacional Interconectado
• Dada la criticidad del correcto funcionamiento
del SPS, se requiere de redundancia dual,
de tal forma que la falla de alguno de sus
componentes no afecten el desempeño total
del SPS.
• Los relés instalados en las subestaciones de
monitoreo adquieren cada segundo, de manera
constante, los datos de las corrientes, voltajes,
estado de interruptores de los elementos de las
contingencias predefinidas y son enviados al
sistema central.
• Los relés instalados en las subestaciones
de mitigación, cada segundo adquieren los
datos de las corrientes, voltajes, estado de
interruptores, de los elementos que forman
parte de las acciones de mitigación, y son
enviados al sistema central.
• Para cada contingencia, con los datos
monitoreados en las subestaciones, el sistema
central resuelve los algoritmos predefinidos y
calcula la potencia de generación y de carga
que debe desconectar automáticamente, y
determina de manera automática las unidades
y las cargas que va a desconectar.
• Cuando ocurre una de las contingencia
definidas en el SPS, el equipamiento de
monitoreo informa al sistema central, y el
sistema central con las soluciones calculadas
en el segundo anterior, envía las decisiones de
apertura al equipamiento de mitigación de las
subestaciones respectivas.
[2] Shimo Wang, George Rodriguez, Smart RAS
(Remedial Action Scheme), IEEE.
[3] Informe del CENACE, “Revisión de las Bandas
de Variación de Voltaje en Barras y Factores
de Potencia en Puntos de Entrega del Sistema
Nacional de Transmisión (SNT)”.
[4] http://www.transelectric.com.ec
[5] GENERACIÓN DE SEGURIDAD Y LÍMITES
DE TRANSFERENCIA DE POTENCIA
ENTRE LOS SISTEMAS ELÉCTRICOS DE
COLOMBIA Y ECUADOR DICIEMBRE
2012 – DICIEMBRE 2013
[6] Rafael Ernesto Salao Paredes, Julio Fernando
Masache Masache, Cristóbal Mera, Análisis
de contingencia del sistema nacional
interconectado.
[7]
7. CONCLUSIONES Y RECOMENDACIONES
• La implementación del Sistema de Protección
Sistémica dará mayor confiabilidad al sistema
eléctrico ecuatoriano, minimizando el riesgo
de experimentar colapsos totales o parciales.
33
Quanta Technology, Estudios de soporte,
análisis, diseño y especificaciones del sistema
de protección sistémica para el sistema
nacional interconectado del Ecuador.
Edison Javier Iza Chango, nació
en Quito, Ecuador, en 1972.
Recibió su título de Ingeniero
Eléctrico
de
la
Escuela
Politécnica Nacional de Quito,
2001. Realizó estudios de MBA
con mención en Calidad y
Productividad en la Universidad
Católica de Quito y al momento se encuenctra
desarrollando la tesis de maestría. Desde el 2000 a
2003 se desempeñó como ingeniero operador de
generación y transmisión y del 2003 al 2011 como
Supervisor de Operaciones en el Área Centro de
Operaciones del CENACE. Actualmente trabaja
como Ingeniero de Estudios Eléctricos de la Dirección
de Planeamiento del CENACE. Sus áreas de interés
son los estudios eléctricos enfocados a la Operación y
Estabilidad de SEP. en Quito, Ecuador en 1982.
Recibió su título de Ingeniero Eléctrico de la
Politécnica Nacional en 2007; se desempeña desde el
2008 como Operador de Generación / Transmisión en
la Sala de Control del CENACE.
María Verónica Flores Soria.
Nació en Latacunga, Ecuador.
Recibió su título de Ingeniera
Eléctrica de Escuela Politécnica
Nacional en el 2000, de Máster en
Economía y Regulación de
Servicios
Públicos
de
la
Universidad de Barcelona, especialidad Energía,
España en 2004, Especialista en Dirección de
Empresas mención Finanzas, de la Universidad
Andina 2007, Máster en Dirección de Empresas de la
Universidad Andina en 2009. Actualmente se
desempeña en el cargo de Gerente Técnica del
Proyecto SPS en el Centro Nacional de Control de
Energía. Sus áreas de mayor interés incluyen
estabilidad de sistemas eléctricos de potencia,
sistemas de acción remediales.
34
Optimización de la Operación de las unidades de la Central Mazar en
Función de la Cabeza Neta
V. A. Llivichuzhca
J. V. Gallardo
Corporación Eléctrica del Ecuador CELEC E.P., Unidad de Negocio HIDROPAUTE
Resumen— Para optimizar la operación de la
central hidroeléctrica Mazar en el corto plazo,
en este artículo se desarrolla un modelo no lineal
basado en los puntos de máxima eficiencia técnica
en la operación de una turbina Francis, que
dependen de la cabeza neta y la descarga de agua
y la potencia generada.
found, as a quadratic function of the net head and
the water discharge.
For this model three hydrological scenarios are
used: Dry, medium and humid, with hourly
solving through a deterministic analysis. The
results obtained a non-supplied power for Mazar
according to scheduled demand, given that the
analysis uses the optimization criteria of the
maximum technical efficiency, without including
restrictions for satisfying demand. This is done
in order to understand the effects of the reservoir
level on operations of the generating units of the
Mazar power plant at maximum efficiency.
La curva de colina entregada por el fabricante
de la turbina es el diagrama de partida para el
desarrollo de esta investigación, y mediante una
regresión no lineal bi-variable se encuentra la
representación de la eficiencia técnica de la turbina
Francis como una función cuadrática de la cabeza
neta y la descarga de agua.
Index Terms— Net Head, Hill Curve, Technical
Efficiency, Design Point, Maximum Efficiency
Para el modelo, se evalúa tres escenarios
hidrológicos seco, medio y húmedo con resolución
horaria a través de un análisis determinístico.
De los resultados se obtuvo una potencia no
suministrada por Mazar de acuerdo a la demanda
programada, debido que el análisis utiliza el criterio
de optimización de máxima eficiencia técnica,
sin la inclusión de la restricción de satisfacer
la demanda; esto se realizó con la intención de
comprender los efectos que causa en el nivel del
embalse al operar las unidades de generación de la
central Mazar a máxima eficiencia.
1. INTRODUCCIN
A mediados del año 2010 la central Mazar que
pertenece al complejo hidroeléctrico Paute inició
su proceso de operación con las dos unidades que
la conforman. En este periodo se ha registrado
información de diferentes parámetros operativos que
nos ha permitido observar el comportamiento de la
producción de la planta más aún en las diferentes
temporadas del año hidrológico (lluvioso y seco)
en donde el comportamiento del nivel del embalse
influye marcadamente en la eficiencia de la operación
de las unidades de generación.
Palabras clave— Cabeza neta, curva de colina,
eficiencia técnica, punto de diseño, máxima
eficiencia.
Con este antecedente y debido que uno de los
aspectos que resulta prioritario en la operación de
un sistema eléctrico de potencia es el uso eficiente
de los recursos energéticos, es importante modelar
sus particularidades para aprovechar de manera
adecuada sus características operativas, más aún,
las compañías de generación que tienen a su cargo
centrales hidroeléctricas; la gestión de estos recursos
hídricos es un eje fundamental para las mismas, ya
que recae en las propias empresas buscar herramientas
adecuadas y adaptarlas a sus necesidades particulares
para optimizar sus recursos.
Abstract— In order to optimize operation of the
Mazar hydroelectric power plant, in the short term,
this paper develops a non-linear model based on
maximum technical efficiency points for operation
of a Francis turbine generator, which depend on
net head, water discharge and generated power.
The hill curve given by the turbine manufacturer
is a diagram to be used as a starting point for
the development of this research, and though a
non-linear bi-variable regression, the technical
efficiency representation of the Francis turbine is
35
Esta investigación busca establecer un modelo
de las unidades de generación, para que en función
de la cabeza neta, se obtenga un uso eficiente del
recurso hídrico almacenado en su embalse. Bajo
la consideración de que la potencia de salida de las
unidades de generación hidroeléctrica, depende
básicamente de tres variables: la cabeza neta, el
caudal de turbinamiento y la eficiencia técnica del
conjunto turbina-generador. Por lo tanto al considerar
la variación de la cabeza neta, la no linealidad de
la descarga dentro de la función de producción de
potencia generada en la central hidroeléctrica puede
tener un efecto significativo.
por las turbinas, se descarga a una cola inferior. Las
turbinas convierten la energía potencial gravitacional
en energía mecánica accionando sus ejes conectados
a los generadores, los cuales suministran energía
eléctrica en sus terminales [2].
2.1. Función de producción de potencia
La función de la producción de potencia en una
unidad de generación hidroeléctrica depende del
producto del caudal de turbinamiento o descarga de
agua por la turbina, la cabeza neta y la eficiencia del
grupo turbina-generador [1], [3], [4]. Por lo tanto es
necesario que los parámetros y/o las características
de la central hidroeléctrica sean expresados
adecuadamente más aún cuando los efectos que
causa la variación de la cabeza neta y la descarga
en las plantas hidroeléctricas son significativos. La
potencia hidráulica total de una unidad de generación
hidroeléctrica se puede expresar como:
En este documento, es preciso mencionar, que se
trata de presentar un avance de la investigación que se
está desarrollando para la optimización de los recursos
hídricos en el complejo hidroeléctrico Paute, por lo
que los resultados mostrados en este documento son
preliminares enfocados únicamente en el modelo de
la central Mazar. Este estudio por lo tanto es el inicio
de esa “búsqueda” del uso eficiente de los recursos
energéticos del complejo hidroeléctrico Paute.
Donde ηj representa la eficiencia del grupo turb
ina-generador, qj el caudal de turbinamiento, hj la
cabeza neta.
Tomando como punto partida la información
del fabricante y la estadística registrada hasta el
momento y basados en la literatura sobre el tema
del MSc.
principalmente en la tesis doctoral
Francisco Javier Díaz [1]; se busca establecer un
modelo que nos permita determinar a través del punto
de diseño los puntos máximos de la eficiencia técnica
de las unidades para diferentes valores de cabeza neta
dentro de la curva colinar de la turbina; permitiendo
tener una generación eficiente en la central y un
mejor aprovechamiento del recurso hídrico, que se
verá reflejado en el almacenamiento del embalse
que a su vez se manifiesta en un ahorro de energía
hidroeléctrica.
1
2.2. La caída bruta
La caída o cabeza bruta, en la operación de una
planta de generación hidroeléctrica, se define como la
caída topográfica, es decir, la diferencia de cotas entre
el nivel del embalse aguas arriba, en la captación de
agua, y el nivel aguas abajo en el canal de descarga. La
citada cota aguas arriba es una función del volumen
almacenado en el embalse [1], [5]. A su vez, la cota
aguas abajo es una función de la descarga defluente,
d, conformada por la descarga total turbinada en la
planta, Q, más el vertimiento, qv, (según el diseño de
la planta), y más el aporte lateral del río Mazar tal
que, d=(Q+qv+ql) durante un período de tiempo de
duración ∆t, puede definirse mediante la expresión
(2).
Logrando finalmente determinar una función de
producción de la generación basados en la eficiencia
técnica de las unidades, por lo que se utilizará como
criterio de optimización, la máxima eficiencia técnica
en la operación de las unidades en la central Mazar.
2. MARCO TEORICO
En las unidades de generación hidroeléctrica,
la producción de electricidad se presenta, en forma
simplificada, como la transformación de la energía
potencial gravitacional del agua almacenada en el
embalse en energía eléctrica por medio de las unidades
generadoras (conjunto turbina-generador). El agua
que se capta a una cota determinada, después de pasar
1
(1)
(2)
Donde Nsupj (vj) es una función de la cota aguas
arriba del embalse de la planta, y Ninfj (Q+qv+ql)
es una función de la cota aguas abajo del canal de
descarga de la planta que relaciona el valor de esta
cota, la descarga defluente, el vertimiento y el aporte
lateral del rio Mazar.
“Optimización de la operación y evaluación de la eficiencia técnica de una
empresa de generación hidroeléctrica en mercados de corto plazo”. Tesis doctoral,
Universidad Nacional de Colombia, 2011, Francisco Javier Díaz.
36
2.2.1 Las pérdidas hidráulicas
nominal con la descarga de agua turbinada, según
sus propias especificaciones de diseño, logrando su
máxima eficiencia. En los estudios de medio y de
largo plazo, por lo general, la eficiencia se considera
constante e igual al valor promedio de todos los grupos
turbina - generador de la central hidroeléctrica. Sin
embargo, en horizontes de más corto plazo, como es el
caso de la programación de la operación hidroeléctrica,
será conveniente una representación más detallada
y precisa del comportamiento de la turbina, ya que
de esta manera se posibilitaría la realización de
un despacho óptimo más exacto y podría ayudar a
evitar la presencia de comportamientos operativos
indeseables” [1], [5], [8].
No todo el potencial energético referente a la
altura de la caída bruta es aprovechado por la turbina.
Durante la conducción del agua se presentan pérdidas
de energía hidráulica por fricción, referentes al efecto
de piezas y dispositivos intercalados en los conductos,
tales como rejas, portones, válvulas y codos.
De acuerdo a las especificaciones del fabricante en
las unidades de la central Mazar, las pérdidas de carga
en el circuito hidráulico de aducción, desde la sección
de la entrada del túnel de carga (toma de agua) hasta
la sección de la salida del túnel de descarga son
calculadas por las expresiones.
(3)
(4)
Las condiciones de operación de una turbina
hidráulica suelen representarse mediante gráficas a
través de curvas características, cuya obtención debe
hacerse experimentalmente, “in situ” o mediante
ensayos de laboratorio en modelos reducidos [1].
Para
una
adecuada
representación
del
comportamiento físico de la eficiencia de una turbina
se debe tener en cuenta, básicamente, dos variables:
la altura de la caída o cabeza neta y la descarga
de agua. Esta interrelación es bastante compleja
y generalmente se expresa mediante curvas que
representan la eficiencia de la turbina a diferentes
niveles, dependiendo de las citadas dos variables. Estas
curvas colinares o “hill diagrams”, generalmente son
entregadas por los fabricantes de las turbinas y tienen
la forma que se ilustra en la Fig. 1. A continuación, se
analiza el comportamiento de la turbina de reacción
tipo Francis de la central Mazar.
2.2.2 La cabeza neta
La altura de la cabeza neta a la que está sometida
una turbina se define como la diferencia de cotas entre
el nivel del embalse y el nivel en el canal de descarga
y menos las pérdidas hidráulicas [1], [6].
(5)
Donde Perj (Qj,qj) representa las pérdidas de
energía hidráulica por fricción.
2.3. La eficiencia técnica del grupo turbina generador
La eficiencia o rendimiento hidráulico de la
turbina, ηt se define como el cociente entre el salto
útil, o energía por unidad de masa transmitida al
generador, y el salto neto, o energía por unidad de
masa disponible a la entrada del rodete. El porcentaje
de la energía mecánica transmitida al rotor de la
máquina que se transforma en energía eléctrica se
conoce como la eficiencia del generador ηg Esta
eficiencia del generador suele englobarse dentro del
término de eficiencia ηj=ηt*ηg , considerada como la
eficiencia global del grupo turbina-generador [1], [2],
[7]. La eficiencia ηg para este estudio, se consideró
una constante.
“La cuantificación de la eficiencia técnica de una
unidad de generación hidroeléctrica es función de
su punto de operación. Cuando la turbina opera en
las condiciones de diseño, ésta gira con el número
de rotaciones especificado y desarrolla su potencia
Figura 1: Diagrama Colinar de las unidades de la central
Mazar.
37
Toda turbina está proyectada para operar con sus
parámetros nominales o de diseño: cabeza neta, hd,
y descarga de agua, qd. Que por lo general la pareja
(hd, qd) es llamado "punto de diseño". En el diagrama
colinar de la Fig. 1, estos parámetros se encuentran
dentro de una zona que no se especifica un punto
de diseño máximo, pero para fines demostrativos
se puede tomar uno de los puntos que garantizan
la eficiencia media ponderada que toma valores
de 146 m y 57,8 m3/s, aproximadamente, donde la
turbina obtiene su "máxima eficiencia" (punto B)
o su rendimiento óptimo, al 95,5%. Además, para
cualquier punto de operación de la región factible
asociado con la pareja (h, q), donde h representa la
cabeza neta y q la descarga de agua, es posible leer la
eficiencia de la turbina [1], [6].
El procedimiento estadístico desarrollado consistió
en tomar una muestra conformada por los puntos
disponibles de la curva de colina entregada por el
fabricante y con el uso de una herramienta de cálculo
matemático, se encontraron los coeficientes βj de la
ecuación de regresión ajustada, de (6).
La interdependencia entre las tres citadas variables,
la cabeza neta, la descarga de agua y la eficiencia
técnica se describe a continuación, y se ilustra en la
Fig. 1. Suponiendo que la turbina está operando en el
punto A con una cabeza neta de 150 m y una descarga
de 34 m3/s, en la curva colinar se lee una eficiencia de
88% y una potencia de salida en la turbina de 44 MW.
Al aumentar la descarga desde el punto A al punto
C; la potencia de salida de la turbina es creciente
desde 44 MW en A, hasta aproximadamente 85 MW
en C con una cabeza neta de 140 m y una descarga
de 66 m3/s. En la Fig. 1 se puede observar que en la
trayectoria operativa ABC ilustra la interdependencia
entre la cabeza neta, la descarga de agua y la potencia
generada.
Figura 2: Puntos de muestreo de la curva de colina de las
unidades de la central Mazar.
En la Fig. 2 se encuentra graficados los puntos de
muestreo y en la Fig. 3 se muestra el modelo ajustado.
Figura 3: Curva de Colina ajustada para las unidades de la
central Mazar.
Mediante estas consideraciones puede verificarse
que el funcionamiento de la unidad en condiciones
operativas diferentes a su “punto de diseño” (cercano
al punto B, en este caso) causa ineficiencias en el
proceso de producción de energía eléctrica.
Ahora bien, la descarga óptima, para una cabeza
neta dada, puede hallarse, mediante optimización,
al igualar a cero la derivada parcial de la función de
eficiencia con respecto a la descarga, ∂η/∂q=0 (para
lo cual, h se toma como una constante), y resolviendo
la ecuación resultante, para la descarga, q, como una
función de la cabeza neta, h. En el caso de (6), se tiene
(7) de la cual puede expresarse q como una función
lineal de h, como se hace en (8).
2.4. La eficiencia como una función cuadrática de
la cabeza neta y la descarga de agua
Con el objetivo de facilitar el análisis del sistema y
su aplicación en la toma de decisiones, se realiza un
trabajo estadístico a partir del diagrama de “Curvas
de Colina” para representar la eficiencia de la turbina
como una función, no lineal, de dos variables: la
cabeza neta y la descarga de agua [1], [5], [8], [9]. El
procedimiento estadístico desarrollado en este trabajo
consiste en la formulación de una regresión no lineal
múltiple de la forma de (6).
(7)
(8)
La eficiencia técnica de una turbina Francis, ha
sido aproximada mediante un modelo cuadrático
bi-variable, como se especifica en (6), a partir del
cual y mediante análisis matemático, se ha llegado
a una función lineal que permite hallar la descarga
(6)
38
de máxima eficiencia relativa asociada a una
determinada cabeza neta. Para esta pareja (cabeza
neta, descarga de agua) es posible calcular tanto la
eficiencia de la turbina como la potencia de salida y la
energía generada, es decir, puede estimarse el nivel de
potencia a máxima eficiencia relativa. Esta descarga
de máxima eficiencia relativa ofrece información útil
a una empresa de generación hidroeléctrica como
ayuda para la toma de decisiones relacionadas con
la asignación de sus unidades de generación o autodespacho de sus unidades una vez que se ha realizado
el despacho por el operador del sistema [5], [8].
con la potencia en función de la máxima eficiencia
de las unidades. Posteriormente se indica un ejemplo
de aplicación en un contexto determinístico para fines
ilustrativos.
3.1. Potencia de las unidades de la Central Mazar
con el criterio de máxima eficiencia técnica
La eficiencia técnica de las unidades de la central
Mazar se ha aproximado de acuerdo a (6) es decir a
un modelo cuadrático bi - variable, que a partir de
este, permite encontrar el turbinamiento o descarga
de máxima eficiencia relativa asociada a una
determinada cabeza neta. Logrando posteriormente
estimar el nivel de potencia de salida de la turbina
a máxima eficiencia; en la Fig. 4 se muestra los
resultados de este análisis donde se aprecia la curva
resultante de potencia a máxima eficiencia, la curva
a máxima potencia de la turbina, y la limitación por
inflexibilidad declarada de las unidades de generación
de la central Mazar.
Continuando el análisis matemático, mediante
un procedimiento similar al utilizado para hallar
la descarga de máxima eficiencia relativa para una
determinada cabeza neta; igualando a cero la derivada
parcial de la eficiencia, esta vez con respecto a la
cabeza neta, ∂η/∂h=0 (tomando la descarga q como
una constante), se obtiene:
(9)
De los anteriores análisis, se tiene el sistema de dos
ecuaciones lineales simultáneas, con dos variables,
formado por (7) y (9), cuya solución debe reproducir
el punto de diseño del “diagrama colinar”, que para el
caso de Mazar este punto toma los valores de 145,5m
y 60 m3/s.
Figura 4: Curva de potencia a máxima eficiencia y curva a
máxima potencia de la turbina
La ventaja de disponer de una función analítica de
este tipo consiste en la posibilidad de desarrollar un
procedimiento matemático para su optimización y
para la toma de decisiones relacionadas, por ejemplo,
con la descarga óptima a realizar en los procesos
operativos diarios u horarios donde puede conocerse,
con una buena aproximación, la cabeza neta, la cual
podría irse actualizando, para cada uno de los períodos
de tiempo, mediante un proceso iterativo, de tal
manera que permita la programación de la operación
diaria u horaria a máxima eficiencia de las unidades
de generación[1], [5], [9].
3.2. Análisis del modelo
determinístico
en
un
contexto
En este apartado se realiza un análisis determinístico
en un periodo de una semana, utilizando los registros
horarios históricos de caudales de ingreso y producción
de la planta, para un escenario de hidrología seca,
en la Fig. 5 se presenta el esquema utilizado para él
ejemplo.
3. ANALISIS DEL MODELO DE LA CENTRAL
MAZAR
El objetivo de este análisis es mostrar el
comportamiento del modelo para la central Mazar
con la consideración de la variabilidad de la cabeza
neta a máxima eficiencia, logrando obtener curvas
de algunos parámetros que permitan dilucidar las
ventajas de una función no lineal de la eficiencia
técnica en periodos de muy corto plazo [2]. En
primera instancia se muestra de manera general la
trayectoria de potencia de la unidad en comparación
Figura 5: Esquema de la central Mazar
Para mostrar la funcionalidad del modelo se
analiza comparativamente los valores de potencia
del registro histórico con los resultados del modelo
con la consideración única que se debe suministrar la
demanda programada por la planta; los resultados que
se indican en la Fig. 6 muestran que el modelo tiene
39
una buena aproximación en relación a los valores
reales registrados, por lo que se puede establecer que
el modelo se encuentra brindando resultados valederos
para el caso de suministrar únicamente la demanda
sin considerar ningún criterio de optimización.
Las curvas de eficiencia para el caso en estudio se
presentan en la Fig. 8.
Figura 8: Curvas de eficiencia real vs el modelo con el criterio
de máxima eficiencia.
Continuando con el análisis en la Fig. 9 se muestra
el efecto representativo al trabajar las unidades de la
central Mazar a máxima eficiencia misma que produce
un incremento en el almacenamiento de agua en el
embalse al final del periodo analizado, por lo tanto
al trabajar con la unidades de Mazar con este criterio
produciría un “ahorro de energía hidroeléctrica” visto
como almacenamiento de agua en el embalse.
Figura 6 : Curvas de potencias real vs modelo.
3.2.1 Análisis con el criterio de máxima eficiencia
Los efectos que trae al utilizar el criterio de descarga
a máxima eficiencia en las unidades de Mazar en el
periodo de operación analizado se presentan en la
Fig. 7 y Fig. 8; de la Fig. 7 se extrae que las unidades
de la central Mazar en ciertos periodos no alcanzan a
cubrir la demanda total requerida, esto es debido que
al aplicar el criterio de descarga a máxima eficiencia
el modelo trata de ajustarse a la programación de
demanda pero está limitado al valor de máxima
eficiencia de la descarga en función de la cabeza neta
en el periodo estudiado, por lo tanto no está sujeto
al cubrimiento total de la misma, esta particularidad
ayuda a comprender los efectos que causa en el nivel
del embalse al operar las unidades de generación de
la central Mazar a máxima eficiencia, esto se mostrará
más adelante.
Figura 9: : Curvas de nivel del embalse real vs el modelo con
el suministro de demanda programada y con el criterio de
máxima eficiencia.
Si se considera que la potencia no suministrada
por Mazar al sistema la podría absorber la central
Molino en lugar del parque generador térmico es
un planteamiento de la investigación que se está
desarrollando actualmente para validar el criterio a
máxima eficiencia.
Adicional al análisis presentado anteriormente,
se evaluó para esta presentación el modelo con dos
escenarios hidrológicos adicionales, un escenario
medio y otro de alta hidrología para la misma
demanda, para estos escenarios en la Fig. 10 se
muestran los resultados obtenidos.
Figura 7 : Curvas de potencia real vs el modelo con el criterio
de máxima eficiencia.
Figura 10: Curvas del nivel del embalse con escenario
húmedo, medio y seco con el criterio de optimización a
máxima eficiencia.
40
Del ejemplo para el escenario de hidrología alta
existe una estimación de generación a la semana mayor
que la demanda base del estudio, esto es un indicativo
que ayudaría a establecer en un rango más ajustado
la potencia efectiva a máxima eficiencia que podría
alcanzar las unidades en temporada seca, es pertinente
señalar en la actualidad por las características técnicas
de la planta la potencia efectiva de las unidades va
disminuyendo cuando los niveles del embalse se
encuentran en cotas bajas. En la Fig. 11 se muestra de
manera gráfica el resultado de potencia del escenario
de hidrología alta.
la presencia de comportamientos operativos
indeseables
tales
como
pulsaciones,
vibraciones en la turbina, etc., y permitiría
definir de una mejor manera los límites de
inflexibilidad de las unidades en función de la
cabeza neta.
• Cuando la turbina Francis opera para una
determinada cabeza neta en un punto menos
eficiente en comparación que a una descarga a
máxima eficiencia, esta pérdida de eficiencia,
en la turbina significa un mayor uso del
recurso hídrico que es necesario para generar
la potencia determinada
• El operar una unidad de Mazar, o en general,
el operar una turbina Francis con el criterio
de máxima eficiencia para una determinada
cabeza neta es un indicador que debe ser
analizado en detalle para contestar la pregunta
¿Será necesario en la actualidad ó a futuro que
las unidades de la central Mazar o algunas
otras del país generen a una potencia máxima
o a una potencia de máxima eficiencia?
• Debido a la particularidad de la descarga
de Mazar se debe buscar un mejor ajuste de
la curva no lineal, para representar ciertas
variaciones que se producen en la altura de la
descarga cuando se producen vertimientos o
incrementos del caudal del rio Mazar.
Figura 11: Potencia de las unidades de la central para el
ejemplo de hidrología alta con el criterio de optimización a
máxima eficiencia.
Es propicio recalcar que este documento presenta
los resultados de la fase inicial de la investigación que
actualmente se está desarrollando para el complejo
hidroeléctrico Paute que básicamente es desarrollar un
modelo que involucre la optimización de las centrales
y embalses en cascada. Es decir con la optimización
se tratará de encontrar un punto adecuado entre
satisfacer la demanda y a la vez ser eficientes. Con
los resultados del estudio global se podría validar el
criterio de optimización a máxima eficiencia para el
complejo hidroeléctrico Paute.
REFERENCIAS BIBLIOGRÁFICAS
[1] Díaz Francisco J., “Optimización de la
operación y evaluación de la eficiencia técnica
de una empresa de generación hidroeléctrica
en mercados de corto plazo”. Tesis doctoral,
Universidad Nacional de Colombia, 2011.
[2] Vukosavić, D. Divac, Z. Stojanović, B.
Stojanović, D. Vučković “Several Hydropower
Production Management Algorithms” Journal
of the Serbian Society for Computational
Mechanics Vol, 3 No. 1, 182-209, 2009.
4. CONCLUSIONES Y RECOMENDACIONES
• Representar la eficiencia técnica con un modelo
analítico de las unidades de generación de la
central Mazar como una función cuadrática
de la cabeza neta y la representación de la no
linealidad del nivel de la descarga de agua en
el modelo facilita un tratamiento matemático
para encontrar una operación óptima en la
generación hidroeléctrica de la unidades en el
muy corto plazo.
• De los resultados preliminares al utilizar el
criterio de máxima eficiencia en un escenario
de sequía al modelo puede significar un ahorro
de los recursos hidráulicos de la cuenca, y
por lo tanto en energía hidroeléctrica que es
acumulada como agua en los embalses.
• En el escenario de corto plazo un adecuado
manejo de la producción ayudaría a evitar
[3] Catalão, J., S. Mariano, V. Mendes y L. Ferreira,
“Scheduling of Head-Sensitive Cascaded
Hydro Systems: A Nolinear Approach", IEEE
Transactions on Power Systems, Vol. 24 Nº 1,
pp. 337-345, Febrero 2009.
[4] Mendes V., L. Ferreira y S. Mariano, "ShortTerm Hydro Schedule with Head-Dependent
Approach by a Nonlinear Model", 8th
Portuguese-Spanish Congress on Electrical
Engineering, 257-263, Vilamoura, Portugal,
Jul. 3-5, 2003.
41
[5] Díaz Javier, "La eficiencia técnica como
un nuevo criterio de optimización para la
generación hidroeléctrica a corto plazo,"
DYNA, vol. 76, no. 157, pp. 91-100, 2009
Vicente Alejandro Llivichuzhca
P.- Nació en Cuenca en 1980.
Recibió su título de Ingeniero
Eléctrico de la Universidad
Politécnica Salesiana en 2006.
Realizó sus estudios de Maestría
en Sistemas Eléctricos de
Potencia en la Universidad de
Cuenca, y sus áreas de interés e investigación se
encuentran relacionadas con la Operación económica,
planificación con procesos de optimización, operación
de centrales hidroeléctricas. Actualmente labora en la
Unidad de Negocio Hidropaute de CELEC EP.
[6] Finardi, E. C. and Da Silva, D. A. “Solving
the unit commitment problem of hydropower
plants via Lagrangian Relaxation and
Sequential
Quadratic
Programming”.
Computational & Applied Mathematics, vol.
24, pp. 317-341, 2005.
[7]
Ni, E., X. Guan y R. Li, "Scheduling
Hydrothermal Power Systems with Cascaded
and Head-Dependent Reservoirs", IEEE
Transactions on Power Systems, 14(3), 11271132(1999).
José Vicente Gallardo T.- Nació
en Machala en 1980. Recibió su
título de Ingeniero Eléctrico de
la Universidad de Cuenca en
2007. Actualmente se encuentra
egresado de la Maestría en
Administración de Empresas en
la Universidad del Azuay, y sus
áreas de interés se encuentran relacionadas con la
Gestión de Proyectos y la Operación de centrales
Hidroeléctricas. Actualmente labora en la Unidad de
Negocio Hidropaute de CELEC EP.
[8] Díaz Francisco J., Líevano Federico, “Modelo
No Lineal para la Óptima Generación
Hidroeléctrica a Máxima Eficiencia. Un
enfoque a Corto Plazo”
[9] Perez J, Wilhelmi J. "Nolinear Self-Scheduling
of a Single Unit Small Hydro Plant in the DayAhead Electricity Market", Departamento
de Ingenieria Civil: Hidraulic y Energetic,
University of Madrid.
42
Análisis para el Inicio del Restablecimiento de la Zona 4 del S.N.I. posterior
a un “Black-out” considerando el Arranque en Negro de las Unidades de la
Central Mazar
M. A. Maldonado
V. A. Llivichuzhca
Corporación Eléctrica del Ecuador CELEC E.P., Unidad de Negocio Hidropaute
Resumen— El presente documento tiene por
objeto realizar un estudio para el inicio del
restablecimiento de la zona 4 a través de la
energización de los servicios auxiliares de las
unidades de generación de la central Molino
mediante las unidades de la central Mazar, a
través del circuito 2 de la línea de transmisión
Zhoray – Molino a 230 kV.
To determine the proposal’s feasibility, relevant
tests were carried out in coordination with the
CENACE to simulate the Black-out condition,
and it was found that approximately 6 minutes is
needed to synchronize a dead busbar and energize
busbar 2 of the Zhoray substation.
The AT2 autotransformer energizing test was
not carried out due to equipment problems in the
Molino Substation.
Para esto es necesario primeramente energizar
la subestación Zhoray, posteriormente energizar
la Subestación Molino y consecuentemente el
Centro de Fuerza Molino de 13,8 kV a través del
devanado terciario de los Autotransformadores
AT2.
Index Terms— Black out, Black Start, Energizing,
Auxiliary Services.
1. INTRODUCCIÓN
Los sistemas eléctricos de potencia tienen como
función suministrar energía a los consumidores con
altos niveles de calidad, seguridad y confiabilidad.
Al estar conformados por una gran cantidad de
componentes que pueden fallar en un determinado
momento y de manera aleatoria, el sistema puede
enfrentarse a problemas que pueden conllevar un
colapso parcial o total del mismo, en el Ecuador
también ha sucedido este tipo de colapsos en su sistema
por ejemplo en la última década se ha presentado dos
ocasiones en los años 2003 [1] y 2004 [2].
Para poder determinar la factibilidad de la
propuesta, se realizaron las pruebas pertinentes,
en coordinación con el CENACE, para simular
la condición de un Black-out, donde se pudo
apreciar que el tiempo necesario para sincronizar
una unidad en barra muerta y energizar la
barra 2 de la subestación Zhoray es de 6 minutos
aproximadamente.
Cabe señalar que la prueba de energización del
autotransformador AT2 no se realizó debido a
problemas presentados en uno de los equipos de
la subestación Molino.
Por tal razón es necesario contar con un plan de
emergencia para resolver este tipo de contingencias
en el menor tiempo posible. El CONELEC a través de
la Regulación No. CONELEC-006/00 [3] establece
los procedimientos básicos a seguir ante este tipo de
sucesos, así como las jerarquías entre las instituciones
encargadas de la coordinación y ejecución de
maniobras necesarias para el restablecimiento del
mismo.
Palabras clave— Black-out, Arranque en negro,
Energización, Servicios auxiliares.
Abstract— The purpose of this paper is to study
the start of restoring processes of the Zone 4 by
energizing auxiliary services of the Molino power
plant generating units, through the Mazar power
plant units, through Circuit 2 of the ZhorayMolino 230 kV transmission line.
Entre los procedimientos básicos a seguir se
encuentra la conformación de islas eléctricas,
dentro de las cuales existen centrales de generación
cuyas unidades tienen la característica de “arranque
en negro”, además, se establecen los niveles de
frecuencia, tensión y circuitos que deben ser
considerados ante estas contingencias por parte de los
agentes encargados de iniciar el restablecimiento del
sistema.
In order to do this, it would be necessary firstly
energize the Zhoray substation, followed by
energizing the Molino substation, and finally the
Molino 13.8 kV power supply center through the
tertiary windings of the AT2 Autotransformers.
43
En la actualidad la Central Molino al ser la central
con mayor potencia de generación, es prioritario que
después de un Black-out, se realice la energización
de su Centro de Fuerza que alimenta a todos los
auxiliares de la Central sin embargo, sus limitaciones
tecnológicas actuales incorporan tiempos de arranque
en negro considerables (de 20 a 30 min); no así la
Central Mazar que con sus características tecnológicas
y operativas reduciría estos tiempos a 6 minutos, si se
dispone de una unidad lista para arrancar y 13 minutos
si se considera la parada y arranque de la unidad,
cabe recalcar que estos tiempos son considerados
únicamente para la sincronización de barra muerta, a
estos tiempos hay que incorporarles el necesario para
la ejecución de las maniobras de energización de la
subestación Molino y por consiguiente los servicios
auxiliares de la central Molino.
Tabla 1 : Zona No.4 Molino – Riobamba – Milagro.
Fuente: Regulación No. CONELEC-006/00 [3] Procedimientos de despacho y
operación
Adicionalmente, a más de poseer la característica de
arranque en negro, para dar inicio al restablecimiento
de la zona, se requiere que las unidades posean
sistemas de control de tensión y frecuencia en una
red aislada, características que poseen las unidades
de la central Mazar, en las cuales los reguladores de
velocidad pueden operar en esta cualidad conmutando
su modo de control a operación en “Red Aislada” y de
esta forma se puede alimentar el centro de fuerza de
la central Molino con niveles de tensión y frecuencia
adecuados.
Figura 1 : Conformación del Subsistema o Zona 4 del SNI [4]
Dentro de esta zona la principal central que tiene
unidades con capacidad de arranque en negro es
la central Paute-Molino unidades que serían las
utilizadas para el restablecimiento de la Zona 4 en
el caso de presentarse un colapso total del sistema.
Como es evidente dentro de este procedimiento
no se incluyen las unidades de la central Mazar,
que también poseen la característica de arranque
en negro y se encuentran junto con la subestación
Zhoray dentro de la zona geográfica que abarca la
Zona 4. Por lo tanto el presente análisis pretende
poner a consideración del CENACE y CONELEC,
los procedimientos desarrollados en este estudio para
que, de ser pertinente, sean incorporados dentro de
los procedimientos para el restablecimiento del SNI
después de un colapso total.
2. REVISION DE LA NORMATIVA VIGENTE
La Regulación No. CONELEC-006/00 [3]
publicada por el Consejo Nacional de Electricidad
CONELEC, establece los procedimientos básicos
para la restauración del SNI después de un colapso
parcial o total, dentro de la misma se establece
las disposiciones que los diferentes actores deben
cumplir. El Centro Nacional de Control de Energía
(CENACE) será el encargado de valorar la situación
y coordinar con el COT y COs los pasos o maniobras
para el inicio del restablecimiento.
El principal objetivo de este procedimiento es
conseguir el restablecimiento del SNI en el menor
tiempo posible, garantizando la seguridad del
personal, equipos y continuidad del servicio, para
esto, el CENACE ha definido la conformación de 4
Subsistemas o Zonas Eléctricas, dentro de las cuales
deben existir centrales que posean unidades con la
característica de arranque autónomo o arranque en
negro y que puedan realizar control de frecuencia
en forma manual, para el presente estudio la zona
de interés es la zona 4, la cual está conformada de la
siguiente manera:.Figura 1 : Diagrama del sistema
CDI
3. CENTRAL MAZAR
La central hidroeléctrica Paute-Mazar a partir
del año 2010 inicio su proceso de operación con las
dos unidades que la conforman, brindando estas un
importante aporte al sistema nacional interconectado.
44
los diferentes parámetros necesarios para garantizar
adecuados niveles de tensión, frecuencia, etc. mismos
que se describen brevemente a continuación
3.1. Arranque en Negro “Black Start”
La Central Mazar posee diferentes fuentes de
alimentación para los servicios auxiliares, las cuales
son conmutadas de acuerdo a la lógica establecida en
SDSC; en condiciones normales, es decir, con la(s)
unidades sincronizadas los servicios auxiliares se
alimenta de esta(s), o de lo contrario si las unidades se
encuentran en reposo, estos se alimentan de las líneas
de transmisión a 13,8 kV Presa-Mazar1 o PresaMazar2 provenientes del centro de fuerza de la Presa
Daniel Palacios como se muestra en la Fig.2.
Control de tensión y potencia reactiva
El sistema de excitación de las unidades de
la central Mazar permiten realizar el control de
la tensión en bornes del generador o la potencia
reactiva del mismo a través de su Interfaz Hombre –
Máquina (IHM) o desde el SDSC para el control de
la tensión, manteniendo los parámetros dentro de los
establecidos por la curva de capabilidad del generador.
Adicionalmente, desde el SDSC se puede controlar
directamente la tensión de la barra correspondiente
en la Subestación Zhoray, considerando siempre los
márgenes de operación segura del generador. [5]
Control de frecuencia y potencia activa.
Las unidades de la Central Mazar poseen diferentes
tipos de control en el sistema de regulación de
velocidad, en el IHM del tablero de control del
regulador de velocidad se puede seleccionar cada uno
de los diferentes tipos de control, estos se describe
brevemente a continuación.
Figura 2 : Diagrama unifilar de los servicios auxiliares de la
central Mazar
Regulación de apertura.- Este modo de control
solo es posible con la unidad sincronizada, es decir
con el interruptor cerrado y la velocidad dentro de los
límites permitidos. La regulación de apertura actúa
directamente en el bucle de regulación de posición
para los alabes directrices, el valor establecido en
la consigna es comparado con el límite de apertura
establecido y fija el menor de los dos. [6]
En el caso de ocurrencia de un colapso total BlackOut donde no se dispondría de la auto alimentación por
medio de las unidades, ni de las líneas provenientes del
centro de fuerza de la Presa Daniel Palacios, Presa1
y Presa2, se dispone de un generador de emergencia
a diesel GED cuya potencia es de 1MVA con una
tensión de 480V, el cual arranca automáticamente
10 segundos después de haber detectado que no
hay presencia de tensión en las demás fuentes de
alimentación e inicia la toma de carga 30 segundos
después.
Regulación de potencia.- En este modo de
operación, la consigan de potencia es enviada al
regulador de velocidad, el cual a través de la curva
característica de la turbina (curva de colina) determina
la apertura de los alabes directrices para alcanzar
la potencia deseada rápidamente, pero debido a las
variaciones posibles en la altura neta, no siempre se
alcanza la potencia deseada con precisión, por lo cual
automáticamente corrige la desviación que pudiera
presentarse, este modo de operación se encuentra
presente durante la operación normal de las unidades.
[6].
Luego del arranque del generador de emergencia
y de la confirmación de que exista la presencia de
tensión en los servicios auxiliares de la central se
podrá realizar el arranque autónomo de la unidad
“Black start”.
Para la operación del generador de emergencia se
dispone de un tanque de reserva de diesel de 5000
galones, que permite garantizar la disponibilidad de
combustible para la operación de dicho generador.
Detección de red aislada.- Este modo de operación
permite monitorear cualquier falla en la red, ya que
en régimen interconectado, el regulador de velocidad
monitorea constantemente la frecuencia de la red y si
se verifica que la turbina está abandonando la banda
de velocidad, conmuta automáticamente a este modo
y mantiene la velocidad dentro de los parámetros
3.2. Operación Aislada de las Unidades de la
Central Mazar.
Para la operación aislada de las unidades de la central
Mazar se requiere de sistemas que permitan controlar
45
establecidos. Este modo también puede ser colocado
por el operador desde el IHM del regulador de
velocidad en cuando sea necesario, por lo tanto este
modo permite mantener la frecuencia dentro de los
parámetros que han sido establecidos en el mismo.
4. SIMULACIÓN DE BLACK-OUT Y PRUEBAS
DE SINCRONIZACIÓN DE LA CENTRAL
MAZAR
Con la finalidad de energizar el Centro de Fuerza
Molino para que las unidades de dicha central puedan
disponer de una fuente de alimentación para sus
servicios auxiliares que les permitan garantizar su
proceso de parada y/o re-arranque de sus unidades y
continuar con el restablecimiento de la zona 4 del SNI
en el menor tiempo posible, se realizaron en semanas
anteriores un simulacro coordinado con los diferentes
actores para verificar el planteamiento indicado
anteriormente.
bloqueo, que lleva a las unidades al paro total, debido
a la actuación de las protecciones por causas externas,
de tal forma que al momento de salir de sincronismo
la unidad, la falla desaparezca permitiendo el rearme
de las protecciones. De ser el caso, previo a un nuevo
arranque de una unidad, la misma debe alcanzar el
estado de Unidad Aislada ya que el sistema no permite
realizar “re-arranque” cuando se ha presentado la
actuación de uno de los relés de bloqueo. Para esto
se requiere de un tiempo mínimo de 7 minutos
(parada), de acuerdo con estudios realizados, y más
el tiempo necesario para el arranque, el tiempo total
para sincronizar en barra muerta una unidad oscilaría
alrededor de 13 minutos.
Luego de energizar una de las barras de la S/E
Zhoray, el CENACE y Transelectric coordinan las
maniobras de energización de la línea Zhoray –
Molino 2, con la intensión de energizar la barra 2 en
230 KV de la Subestación Molino, para esta maniobra
se procedió a disminuir al mínimo la tensión del
generador 13,1 kV, y debido a las condiciones de
configuración de la red fue necesario modificar los
setting del regulador de tensión a 94% de la tensión
nominal, alcanzando un valor mínimo de 12,9 kV en
bornes del generador, maniobra requerida durante la
prueba para lograr un valor de tensión adecuado al
nivel de barra de alta tensión.
4.1. Energización del Centro de Fuerza Molino,
a Través del Circuito 2 de la Línea de
Transmisión Zhoray – Molino de 230 Kv.
La alternativa planteada considera el circuito 2
de la línea de transmisión que une las subestaciones
Zhoray y Molino a 230 kV, el uso del circuito 2,
se debe a lo establecido en el Procedimiento de
Despacho y Operación, donde se indica que dichos
circuitos deben ser usados para el restablecimiento
del sistema ya que los circuitos 1 poseen protección
de sobrevoltaje. Para esto se energiza la subestación
Zhoray, posteriormente se energiza la Subestación
Molino y consecuentemente el Centro de Fuerza
Molino de 13,8 kV a través del devanado terciario de
los Autotransformadores AT1 y/o AT2, el diagrama de
interconexión se presenta en la Fig. 3.
Previo a energizar la línea Mazar – Zhoray 2, el
CENACE, COT y CELEC, realizaron las maniobras
necesarias para simular la condición de Black-out en
las instalaciones involucradas [7].
Figura 3 : Diagrama de interconexión entre la Central Mazar
y el Centro de Fuerza Molino a través de la red de 230 kV
Cabe señalar finalmente que debido a ciertos
inconvenientes presentados en uno de los interruptores
de la subestación Molino la prueba no pudo ser
terminada en su totalidad, quedando pendiente para un
posterior ensayo verificar y validar el procedimiento
de energización de uno de los autotransformadores de
la subestación Molino alimentados desde la central
Mazar.
El tiempo necesario para sincronizar una de las
unidades en barra muerta dependerá de las condiciones
previas a la ocurrencia del Black-Out, las pruebas se
realizaron con las 2 unidades en reposo previo a la
simulación y lista para arrancar, en esta condición
el tiempo necesario para la sincronización fue de 6
minutos.
En el escenario, de que las dos unidades se
encuentren sincronizadas al sistema previo a la
ocurrencia de la falla y en el instante que se presente la
misma se presenta la actuación de uno de los relés de
Es importante indicar que la prueba mencionada
anteriormente facilito identificar ciertos puntos de
mejora en diferentes sistemas de la planta, puntos
46
que fueron analizados, adecuados o mejorados
posteriormente, entre estos podemos indicar:
• Las maniobras necesarias para energizar la
barra 2 de la Subestación Zhoray y la línea de
transmisión Zhoray- Molino 2 se realizaron
exitosamente. La energización de la barra
2 de 230 kV de la Subestación Molino y de
su Autotransformador AT2 no se realizaron
debido a inconvenientes presentados durante
la prueba.
• Determinar si el tiempo de estabilización de
la frecuencia del generador es adecuado o de
lo contrario realizar los ajustes para mejorar
la respuesta del regulador de velocidad, ó a su
vez analizar si el rango de frecuencia en estado
de emergencia es el apropiado en la normativa.
• Realizar los estudios de estabilidad cuando una
unidad de la central Mazar se interconecte con
la central Molino con baja carga y confirmar
que la energización del AT2 de la Subestación
Molino desde Mazar no presentaría problemas
de ferro-resonancia mediante un análisis
eléctrico.
• Se debe coordinar con los diferentes actores
la realización de nuevas pruebas las que
sean necesarias para verificar o validar
procedimientos, e identificar puntos de mejora.
• Con la validación de las pruebas de arranque
en negro de las unidades de la central Mazar
y energización de los auxiliares de la central
Molino a través de la L/T Zhoray-Molino 230
kV circuito 2 se plantearía este procedimiento
como una alternativa para el inicio del
restablecimiento de la zona 4 en estado de
emergencia.
• En el sistema SDSC se desarrolló tres lógicas
que permiten al operador mejorar su respuesta
ante la presencia de un Black-out en el sistema:
• Lógica para detectar condiciones de Blackout en el sistema, la cual presenta al operador
una alarma en el despliegue de control de
unidades, de tal manera que el operador pueda
ser alertado de tal situación.
• Lógica para la detección automática de Barra
Muerta que permita al operador confirmar
esta condición vía comando y realizar el
sincronismo de la unidad en Barra Muerta.
• Lógica que envía una señal al regulador de
velocidad para que este sistema conmute
automáticamente a modo de Red Aislada
inmediatamente después del cierre del
interruptor principal en condición de barra
muerta.
• Verificación de los setting de los relés de
sobre voltaje de las unidades los mismos
se encuentran ajustados de acuerdo a las
recomendaciones del fabricante 110% 5 seg
-130% 0,1 seg para las dos unidades, cabe
señalar que el relé de bajo voltaje no se
encuentra habilitado.
• Se realizaron pruebas de sincronismo en barra
muerta de las unidades de generación para
verificar la respuesta de los reguladores de
velocidad. Se ha determinado que la Unidad
01 presenta mejores condiciones para el
control de frecuencia en Red Aislada. La
unidad 02 presenta oscilaciones en el control
de frecuencia.
AGRADECIMIENTOS
Agradecemos la colaboración del personal de
CENACE, TRANSELECTRIC, HIDROPAUTE por
la cooperación brinda durante las pruebas.
5. CONCLUSIONES Y RECOMENDACIONES
• Se confirmó la validez de los procedimientos
desarrollados para la sincronización en barra
muerta de las unidades, y se adecuaron
mejoras para confirmar "Barra Muerta" previo
a la orden de sincronización desde el SDSC
que es inmediato.
• El tiempo necesario para arrancar y sincronizar
la unidad en barra muerta, bajo el escenario de
reposo de la misma durante la falla alcanzó los
6 minutos
• Se aprecia que el tiempo necesario para que
se estabilice la frecuencia en los valores
recomendados es relativamente largo.
• La absorción de reactivos durante la
energización de los diferentes elementos se
realizó con normalidad sin llegar a límites de
inestabilidad de la unidad.
REFERENCIAS BIBLIOGRÁFICAS
[1] Supervisión de Operación Molino., “Informe
de falla IF01-2003”. Central Molino.
[2] Supervisión de Operación Molino., “Informe
de falla IF02-2004”. Central Molino.
[3] CONELEC, Regulación No. CONELEC
– 006/00, Procedimiento de despacho y
operación, 2000.
[4] TRANSELECTRIC, SISTEMA NACIONAL
DE
TRANSMISION,
disponible
en
línea
http://190.90.144.25/real/INDEX.
asp?zoom2=1
47
[5] Alstom, Manual de Operación y Mantenimiento
del Regulador de Tensión, 2010.
Vicente Alejandro Llivichuzhca
P.- Nació en Cuenca en 1980.
Recibió su título de Ingeniero
Eléctrico de la Universidad
Politécnica Salesiana en 2006.
Realizó sus estudios de Maestría
en Sistemas Eléctricos de Potencia
en la Universidad de Cuenca, y
sus áreas de interés e investigación se encuentran
relacionadas con la operación económica,
planificación con procesos de optimización, operación
de centrales eléctricas. Actualmente labora en el área
de operación en la Unidad de Negocio Hidropaute de
CELEC EP
[6] Voith-Siemens, Manual de Operación y
Mantenimiento del Regulador de Velocidad,
2010.
[7] CENACE, Ficha de Moniobras CENACE No.
101 - 2013, 2013.
Miguel Ángel Maldonado O.Nació en Atahualpa – El Oro en
1982.
Recibió su título de
Ingeniero
Eléctrico
de
la
Universidad de Cuenca en 2011.
Se encuentra realizando sus
estudios
de
Maestría
en
Administración de Empresas en la
Universidad de Especialidades Espíritu Santo.
Actualmente labora en el área de operación en la
Unidad de Negocio Hidropaute de CELEC EP.
48
Diseño y Construcción de un equipo para seguimiento solar automático,
e implementación de un software de supervisión para un sistema móvil
fotovoltaico
J. Almeida
P. Ayala
Escuela Politécnica del Ejercito - ESPE
Resumen— El proyecto se basa en habilitar un
sistema móvil fotovoltaico, el mismo que cuenta
con 3 paneles solares que generan una potencia
efectiva de 300W. Se diseñó y construyó un
dispositivo de seguimiento solar automático
con dos grados de libertad, implementando un
software de supervisión el cual sirve para llevar
un histórico, que permite obtener las curvas
características de funcionamiento y operatividad
de los parámetros que intervienen dentro
del sistema solar fotovoltaico. Este proyecto
aprovecha la energía producida por las células
fotovoltaicas, transformando la energía solar en
electricidad, que es utilizada en el consumo local
y abastecimiento del propio sistema, volviéndose
un equipo autónomo. Se implementaron circuitos
conversores DC-DC que permiten obtener las
curvas características y el correcto funcionamiento
del seguidor. El sistema opera con el algoritmo
perturbar y observar (Maximum Power Point
Tracking, MPPT) para el seguimiento del punto
de máxima potencia del sistema fotovoltaico.
Index Terms— DC-DC Converter, Maximun Power
Point Tracking (MPPT), Mobile Photovoltaic
System, Characteristic Curves
Palabras clave— Convertidor DC-DC, Algoritmo
perturbar y observar (MPPT), Sistema móvil
fotovoltaico, Curvas características.
El principio físico que rige el funcionamiento de
una célula fotovoltaica, puede ser explicado tomando
como base una unión p-n de material semiconductor
(normalmente silicio) sensible a la luz solar. Cuando
ésta incide sobre la unión (generalmente sobre el
lado n), los fotones que la constituyen suministran
la cantidad de energía necesaria a los electrones de
valencia del semiconductor, para romper el enlace
que los mantenía unidos a sus átomos respectivos.
1. INTRODUCCIÓN
El sol es considerado una de las fuentes de
energía más prometedoras, pues se considera una
fuente inagotable, debido a esto las tecnologías de
aprovechamiento de energía solar han tenido un gran
auge en el mercado, donde la tecnología que mayor
ha impactado es la fotovoltaica, la cual convierte
directamente la energía solar en electricidad [1].
El problema actual es que esta energía sigue siendo
aún costosa, ya que la eficiencia de la conversión luz
solar - energía eléctrica es aproximadamente entre
9 y 17% en los paneles más comunes del mercado,
tomando en cuenta que la eficiencia cambia a lo largo
del día, dependiendo de la irradiancia y la temperatura
del panel solar. Ambas variables son fundamentales
en la generación de energía por dicho panel.
Abstract— This project is based on activating a
mobile photovoltaic system with 3 solar panels that
generates an effective power of 300 W. An automatic
solar tracker was designed and built with two
degrees of freedom, implementing a monitoring
software which keeps a historic record and allows
for the creation of characteristic operating and
performance curves for the parameters involved
in the photovoltaic solar power system. This
project makes use of the energy produced by the
photovoltaic cells to transform solar energy into
electricity, which is consumed locally and supplies
the system itself, making it an autonomous system.
DC-DC converter circuits were installed to
achieve characteristic curves and proper tracker
functioning. The system operates with the Perturb
and Observe algorithm (Maximum Power point
Tracking, MPPT) for tracking the photovoltaic
system’s maximum power point.
Las
celdas
fotovoltaicas
tienen
curvas
características V-I que definen el comportamiento de
las mismas ante diferentes condiciones de operación.
La potencia de una celda solar está dada por el
producto de la corriente y el voltaje de la misma. El
punto de máxima potencia (MPPT, Maximum Power
Point Tracking) es el producto del voltaje en el punto
máximo (VMPPT) y corriente en el punto máximo
(IMPPT) para los cuales la potencia extraída del
arreglo fotovoltaico es máxima (PMPPT). El punto de
máxima potencia varía continuamente, pues depende
de factores como la temperatura de la celda solar y de
las condiciones de irradiancia [2].
49
Los algoritmos de seguimiento del punto de máxima
potencia (MPPT) se utilizan en sistemas fotovoltaicos
para maximizar la energía entregada por los mismos,
dicho seguimiento se realiza básicamente variando
el valor de ciclo útil de un convertidor de potencia.
Existen gran variedad de algoritmos de seguimiento
de punto de máxima potencia como por ejemplo
[3]: perturba y observa, basados en lógica difusa,
basado en redes neuronales artificiales, RCC (Ripple
Correlation Control) [4], conductancia incremental
(INC) [5, 6, 7] entre otros.
La juntura entre la capa N (red de carga negativa)
y P (red de carga positiva) crea el efecto de un diodo.
Cuando la celda fotovoltaica recibe la irradiación
solar se obtiene una fuente de corriente constante y
las pérdidas eléctricas internas son representadas por
una resistencia fig. 3.
En los sistemas fotovoltaicos existe la posibilidad
de implementar un dispositivo adicional con el fin de
aumentar la captación de radiación solar y por ende la
energía suministrada por la instalación, tal dispositivo
es un seguidor solar.
Figura 3: Circuito Eléctrico equivalente de la celda PV
[Eckstein, 1990]
La fuente de corriente IL es unidireccional y
es función de la radiación incidente, temperatura
y voltaje. La juntura P-N es representada por el
diodo en paralelo con la fuente de corriente, que es
atravesado por una corriente interna unidireccional ID
que depende de la tensión en las terminales de la celda
y la temperatura, la resistencia en serie RS representa
las pérdidas eléctricas interna en la celda [8].
Un seguidor solar fig. 1, es un equipo conformado
por una parte fija y una móvil, que consta de 2 grados
de libertad, cuya finalidad es la de proporcionar una
mayor captación de la radiación solar, permitiendo que
los paneles se encuentren de manera perpendicular
con los rayos de sol durante el día y dentro del rango
de movimiento.
Una única célula, es capaz de proporcionar una
tensión de apenas 0,5V y una potencia entre 1 y 2W.
Para elevar la potencia suministrada, las células se
conectan en serie y en paralelo, dando lugar a lo que
se denomina panel o módulo fotovoltaico.
La expresión (1) describe la relación que existe
entre la tensión (V) y la corriente (I) entregada por el
módulo [9], donde nP y nS son las células conectadas
en paralelo y en serie; RP y RS las resistencias
intrínsecas paralelo y serie asociadas a la célula, K es
la constante de Boltzman (1.38 * 10-23 J/K) y q es la
carga del electrón. El factor A determina la desviación
de las características de una unión p-n ideal, e IS la
corriente inversa de saturación. IL representa la
corriente generada por la radiación solar (G). Dicha
corriente exhibe una relación respecto de la radiación
y la temperatura.
Figura 1: Diseño de Seguidor Solar
2. DESARROLLO
2.1. Modelo panel solar
El circuito equivalente de una celda PV, tiene su
configuración física y sus características eléctricas
fig. 2.
Figura 2: Esquemático de la celda PV [Townsend, 1989]
50
(1)
(2)
(3)
(4)
La expresión (1) (considerando la dependencia de
los parámetros con T y G), proporciona las curvas
características de I-V de un panel fotovoltaico, y su
producto entrega la potencia suministrada. Se muestra
en la fig. 4 las curvas de un panel determinado,
así como la dependencia de las variables con la
temperatura y la radiación solar. En la curva se
representa el punto de máxima potencia (Vmppt),
indicando el punto óptimo de operación, para un uso
eficiente del panel. Puntos importantes de esta curva
son la tensión a circuito abierto (Voc) y la corriente
de cortocircuito (Isc). La tensión en circuito abierto
representa la máxima tensión que proporciona el
panel a corriente cero (sin carga), la corriente máxima
en cortocircuito representa la máxima corriente que se
puede extraer del panel (carga en cortocircuito).
Figura 5: Algoritmo Perturbar y Observar.
2.1.2 Análisis Transitorio
Se utiliza un convertidor DC-DC para modificar la
potencia a la salida de los paneles fotovoltaicos, esta
energía será almacenada en un banco de baterías y se
utilizará para él funcionamiento del seguidor solar y
un conversor DC-AC.
SEPIC (Single Ended Primary Inductor Converter)
se ha utilizado esta topología porque el voltaje de
salida puede ser más alto o más bajo que la entrada,
además la salida no es invertida como en el caso de la
topología Ćuk.
Figura 4: Características I-V y P-V de un panel fotovoltaico.
2.1.1 Algoritmo “Perturbar y Observar (P&O)”
El algoritmo de perturbar y observar funciona bajo
el siguiente criterio, si el voltaje de operación V, del
arreglo fotovoltaico se perturba en cierta dirección
y la potencia del mismo incrementa significa que el
punto de operación se ha movido hacia el MPPT,
por lo que el voltaje de operación deberá perturbarse
en la misma dirección, de otra forma si la potencia
extraída del arreglo fotovoltaico disminuye, el punto
de operación se ha movido en dirección opuesta
de la ubicación del MPPT, por lo tanto deberá ser
perturbado en dirección contraria a la que tenía [6].
Figura 6: Circuito equivalente de Thevenin de un panel solar
conectado a un conversor
En la fig. 5 se muestra el diagrama de flujo del
algoritmo P&O utilizado, donde la potencia medida
(pact) es comparada con la potencia anterior (pant),
esto determina si aplica la misma perturbación (pert
es una variable binaria que indica la dirección de
la perturbación) o se deberá invertir en el siguiente
ciclo. La variable step representa el tamaño de la
perturbación y pwm es el valor del ciclo útil utilizado.
Figura 7: Diseño del conversor Sepic
El circuito Sepic fig.7 funciona en modo de corriente
del inductor discontinuo (DICM) o el modo de tensión
del condensador (DCVM). Este tipo de convertidor
tiene la particularidad que la resistencia de entrada
51
es proporcional a la conmutación de frecuencia. Por
lo tanto, mediante el ajuste del ciclo de trabajo del
interruptor principal, se puede hacer que la resistencia
de entrada del convertidor sea igual a la salida,
obteniendo una salida equivalente a la del panel. Esto
asegura la máxima transferencia de potencia. En la
fig.6 el convertidor que está conectado al panel solar
es un SEPIC operando en DICM o DCVM [10], [11].
El diodo se encuentra polarizado en sentido inverso,
por lo que la corriente a través del mismo es
,
y la tensión entre sus terminales es
Mientras que el transistor al estar activo posee una
tensión VQ = 0 una corriente igual a la del inductor de
entrada L1 iQ =iL1 .
Este circuito, se analiza entre los dos estados de
conducción del transistor Mosfet, en estado encendido
y estado apagado. Para eso, se tendrá en cuenta el
ciclo útil de trabajo de la señal PWM que es usada
para disparar el transistor en los diferentes modos de
conducción.
Estado del Mosfet apagado (DT < t < T)
El siguiente paso es analizar cuando el transistor
está apagado, obteniendo el circuito que se muestra
en la fig.9. Durante este momento, las corrientes a
través de los inductores L1 y L2 actúan como fuentes
de corriente obligando al diodo a polarizarse en forma
directa.
Estado del Mosfet encendido (0 < t <DT)
Durante este periodo de trabajo, el transistor es
activado, obteniendo el circuito equivalente que se
muestra en la fig.8, con sus respectivas tensiones
y corrientes. Durante este proceso, el inductor L1
es cargado con la tensión de la fuente de entrada,
mientras que el inductor L2 es cargado con la energía
almacenada por el condensador C1. Adicionalmente
la carga se encuentra aislada de la tensión de entrada
y es alimentada con la energía almacenada en el
condensador de salida C2:
Figura 9: Sepic transistor apagado
La tensión en las terminales del inductor L2 es
igual a
La tensión a través del inductor L1 está determinada
por la relación
(5)
La tensión que aparece a través del inductor L2 es
igual a
(6)
(10)
Una vez obtenido el voltaje en el condensador
en términos de tensiones más conocidas, se halla el
valor de la tensión en el inductor L1, recordando que
la tensión de un condensador no puede cambiar de
manera abrupta. Por medio de la ley de conservación
de energía aplicada en la primera malla, la ecuación
resultante es:
Finalmente, la corriente que circula sobre el
condensador de salida es igual a
(9)
Recordando que la tensión media en un inductor es
igual a cero durante un ciclo en régimen permanente,
hallamos la tensión del inductor en el estado encendido
(que es el mismo del condensador C1) en términos de
alguna tensión más conocida del circuito:
Figura 8: Sepic transistor activado
(8)
(7)
52
(11)
Y recordando que la tensión media de un inductor
es cero durante un ciclo en régimen permanente,
llegamos a la expresión:
A partir del valor mínimo de corriente sobre el
inductor podemos calcular la inductancia mínima
para que el circuito opere en modo de corriente
continua, hallando así el límite en el que puede operar
el circuito entre modo continuo y discontinuo. Para
eso, el mínimo valor de corriente que puede tener
el inductor es cero, despejando allí la inductancia
mínima:
(12)
(13)
Usando la expresión anterior, es fácil ver que se
pueden simplificar algunas tensiones ya obtenidas,
dando como resultado que
El siguiente valor a calcular es el inductor L2, el
cual debemos asegurarnos que también trabaje en
modo corriente continua por simplicidad del circuito.
Procedemos a calcular primero el valor medio de
corriente sobre el mismo. Si recordamos, durante el
ciclo de encendido, la corriente sobre L2 es la misma
del condensador C1 pero en sentido inverso, es decir
iL2 = -iC1, y en estado de apagado, la corriente es
igual a iL2 = -iD - iC1, donde además la corriente en el
diodo es igual iD = -iC2 + i0 a como se ve a la salida
del circuito de la fig.9. Recordando que la corriente
promedio a través de un condensador es igual a cero,
es fácil llegar a deducir que la corriente promedio
del inductor L2 es igual a la corriente promedio de la
carga, en otras palabras IL2 = I0. Por lo que los valores
máximo y mínimo de la corriente son:
(14)
Al encontrarse el transistor apagado, la corriente
por el mismo es igual iQ = 0 mientras que la tensión
entre sus terminales es igual a
(15)
La corriente de polarización en el diodo depende
de las corrientes de los dos inductores L1 y L2, y por
medio de la ley de corrientes en un nodo es igual a
i = i +i . La tensión sobre el diodo en este estado
L1 L2
D
es igual a VD = 0 en el caso ideal, suponiendo que no
cae ninguna tensión sobre el diodo cuando se polariza
en directo. La corriente promedio del inductor de
entrada L1 es igual a la corriente promedio de entrada
del circuito o entregada por la fuente de alimentación
IL1 = II . Considerando que en el sistema no existen
perdidas, la potencia de entrada es igual a la potencia
de salida, por lo que se puede obtener:
(18)
Donde fS es la frecuencia de conmutación del
transistor. Claramente se ve que para calcular esta
inductancia mínima, se debe considerar la carga que
entregue el mínimo valor de corriente de salida sin
llegar al caso extremo de circuito abierto, así como el
valor de ciclo útil que pueda ser crítico.
De donde se despeja la función de transferencia de
la función, es decir:
(17)
(19)
Realizando el mismo procedimiento para L1, la
corriente mínima la igualamos a cero para calcular el
valor mínimo del inductor L2:
(16)
Y con el valor anterior, se calcula los valores
máximo y mínimo de la corriente sobre el inductor
L1:
(20)
Donde RL es la carga de salida que se colocara a la
salida del convertidor.
53
La forma de onda de corrientes y tensiones de todos
los elementos se observa en la fig. 10.
(23)
Por lo que el condensador es igual a:
(24)
El circuito Sepic, es usado en aplicaciones de
corrección de factor de potencia, sin embargo posee
gran ventaja sobre este último en que la tensión
de salida puede llegar a ser menor que la tensión
de entrada, lo que lo hace muy llamativo para la
aplicación de cargador de baterías.
Presenta una fácil implementación y aislamiento
entre la entrada y la salida, y un menor rizado de
corriente de entrada a altas frecuencias. Sin embargo,
una mejora de este circuito puede ser obtenida
acoplando los dos inductores vistos bajo un mismo
núcleo, teniendo la posibilidad de aumentar la
eficiencia en un 2% y reduciendo la emisión de ruido,
lo que conlleva a simplificar el filtro de entrada del
convertidor.
3. SIMULACIÓN
Se utilizó el programa de matlab para realizar la
simulación del convertidor en cuestión.
Figura 10: Formas de Onda
De la fig.10, se calcula los valores de los
condensadores a partir de las áreas que se muestran.
Comenzamos calculando el valor del condensador
C1, recordando que durante el ciclo de apagado del
transistor, la corriente sobre C1 es la misma que
circula por L1.
Si observamos que el área de corriente de C1
durante el ciclo de apagado del transistor es un
trapecio con alturas iguales al valor mínimo y máximo
de la corriente del inductor L1, el diferencial de carga
que es el área bajo esta curva es igual a:
Y recordando la definición de capacitancia
despejando C1 se tiene el valor de:
(21)
Figura 11: Sistema Fotovoltaico con control MPPT
,
(22)
Finalmente, para el condensador de salida C2,
durante el estado de encendido del transistor, la
corriente sobre C2 es la misma de la carga pero en
sentido inverso, luego el diferencial de carga obtenido
es igual a
Figura 12: Circuito conversor SEPIC
54
644pa. El bobinado se lo realizó con el cable Litz, un
cable de 100 hilos esmaltados con capacidad de 7 [A]
en bobina.
Figura 13: Respuesta de Voltaje
Figura 16: Modelo Arnold MS-226060-2
Cable Litz
Estos tipos de cables se utilizan fundamentalmente
para: conversión de energía, emisión y recepción en
alta frecuencia, electrónica de potencia, detectores de
proximidad inductiva, etiquetas electrónicas, equipos
de transmisiones telefónicas múltiples, uniones
flexibles para relais, bobinas, transformadores,
motores, etc.
Figura 14: Respuesta de Corriente
Figura 15 : Respuesta de Potencia
Se usó un panel fotovoltaico Isofotón I-110, que
tiene una tensión nominal 12V, una potencia máxima
de 110W, corriente de cortocircuito 6.54A, tensión de
circuito abierto 21.6V, corriente de máxima potencia
6.1A, tensión de máxima potencia 17.4V.
Figura 17 : Inductor bobinado con cable Litz
Montaje:
De lo dispuesto en la simulación se consideró el
capacitor de 50[V]. Además transistores mosfet
IRFB52N15D con sus respectivos disipadores, diodos
ultrarápidos hfa15tb60, la resistencia de carga es el
cargador de baterías, ya que la energía entregada por
el panel se implementa para cargar la batería.
Inductor L1 = 1mF, L2 = 300uF, C1=100uF,
C2=1000uF, frecuencia de 73 kHz y ciclo de carga
del 50% regulado por el control de MPPT.
4. IMPLEMENTACIÓN
4.1. Convertidor SEPIC DC-DC
Para la implementación del prototipo del
convertidor se han seleccionado los componentes
basados en el estudio y desarrollo de la simulación
de tal forma que los componentes son los siguientes:
Bobina: Se utilizó un toroide de núcleo de hierro
pulverizado fig.16 por sus características para trabajar
en altas frecuencias (máx. 500 kHz), ya que trabaja
a una frecuencia de 73Khz entregada por el AVR
Figura 18 : Implementación del convertidor DC-DC Sepic
55
4.2. Control MPPT
Este comportamiento es una ventaja, ya que el panel
es una fuente variable de energía, y cuando existe una
caída de tensión se regula la salida, para que el sistema
no exija más energía de la que puede entregar el panel
y en cambio se alimente de las baterías.
Para la implementación del control se hizo por
separado de la etapa de potencia, el circuito permite la
activación de los mosfet, mediante el uso del integrado
tlp250, por otro lado, se tiene una pantalla gráfica
TFT HY32D 3.2” donde se muestran las curvas de
funcionamiento del panel, tanto en voltaje, corriente
y potencia. En el circuito de potencia del conversor se
tiene un sensor de corriente ACS715-20 que contiene
un circuito de acondicionamiento entregando una
señal de 0 [V] a 5 [V] captada por el microcontrolador
AVR, el mismo que contiene el control de la pantalla.
La correcta implementación de un convertidor DCDC en este caso Sepic facilitó el funcionamiento del
sistema, tanto para el almacenamiento de energía como
para el consumo.
Una ventaja del convertidor Sepic es que puede
trabajar en voltaje o en corriente, dependiendo las
características del sistema.
Una ventaja de utilizar el control MPPT (Seguidor
del Punto de Máxima Potencia), es que este varía en
función de los parámetros de funcionamiento del
panel, otorgando una eficiencia mayor al sistema y
disminuyendo las pérdidas.
Una desventaja del circuito Sepic es su eficiencia,
ya que varía entre el 70% y 90%, esto básicamente
es por los elementos de trabajo y por el período de
conmutación del sistema.
Figura 19: Placa de control y pantalla gráfica
4.3. Montaje Completo
El tener un sistema de posicionamiento manual, os
permite observar la variación de la potencia entregada
en el panel solar, a una determinada hora y ubicación, a
diferencia de un sistema estático.
Se observa en la fig. 20, el montaje en su totalidad
del controlador, este posee una pantalla para
visualizar el comportamiento de las curvas, adicional
se almacenan en una tarjeta Sd card la cual entrega un
registro de los datos, posee un sistema de seguimiento
manual, implementado mediante un joystick el que
nos permite seleccionar el movimiento y que eje es
el que va a moverse, esto se visualiza en el Lcd 16x2.
El almacenamiento de datos, permite al usuario,
tener una referencia real, del funcionamiento del
sistema en determinado periodo de tiempo o en todo
el tiempo, dependiendo el requerimiento del usuario.
El sistema es muy amigable y fácil de utilizar, no
requiere mucho conocimiento, adicionalmente como es
autónomo no necesita energía externa.
6. REFERENCIAS BIBLIOGRÁFICAS
[1] Rashid Muhammad H. and Lana Char “Solar
Power
Conversion” Power Electronics
Handbook, Capítulo 26, pp. 661 – 672,
Academic Press, Segunda edición, 2007.
Figura 20: Sistema Adquisidor y control del Seguidor
Fotovoltaico
[2] N. Femia, G. Petrone, G. Spagnuolo and M.
Vitelli “Optimizing Duty-cycle Perturbation
of P&O MPPT Techinque” Power Electronics
Especialists Conference, 2004. PESC 2004.
35th Annnual. vol. 3, pp 1939 – 1944, 20 –25
Junio 2004.
5. CONCLUSIONES Y RECOMENDACIONES
El voltaje y corriente de salida del convertidor está
en función de la variación del ciclo de trabajo de la señal
que conmuta los transistores y sólo de ese valor, de tal
forma que para D < 0.5 se comporta como reductor y
para D > 0.5 se comporta como elevador.
56
[3] Trishan Esram and Patrick L. Chapman
“Comparision
of
Photovoltaic
Array
Maximum Power Point Tracking techniques”,
IEEE Transactions on energy conversion, vol
22 (2), Junio de 2007.
[9] J.A. Grow, C.D. Manning : “Development of
a photovoltaic array model for use in powerelectronics simulation studies”. IEE Proc. On
Electric Power Applications, vol. 146, no. 2,
pp, 193-200, March 1999.
[10] Lin and Y. Lee, “Power-factor correction using
Cuk converters in dis-continuous-capacitorvoltage mode operation,” IEEE Trans. Ind.
Electron., vol. 44, pp. 648-653, Oct. 1997.
[11] D. Maksimovic and S. Cuk, “A unified analysis
of PWM converters in discontinuous modes,”
IEEE Trans. Power Electron., vol. 6 pp. 476490, Mar. 1991.
[4] Trishan Esram and Patrick L. Chapman
“Comparision of Photovoltaic Array Maximum
Power Point Tracking Arrays Using Ripple
Correlation Control” IEEE Transactions on
Power Electronics, vol. 21 (5), Septiembre
2006.
[5 ] Chad Alberts, Justin Brown, Rpbert Button,
Anna Flower and Srinivasa Vemuru “Solar
Array Peak Power Tracker”, American
Socierty, 31 Marzo de 2006 – 1 Abril 2006.
Edison Javier Almeida Baroja.Egresado de la carrera de
Ingeniería
en
Mecatrónica
Universidad de las Fuerzas
Armadas (ESPE).
[6] Dezso Sera, Tamas Kerekes, Remus
Teodorescu and Frede Blaabjerg “Improved
MPPT algorithms for rapidly changing
enviromental conditions”, Power Electronics
and Motion Control Conference, 2006.
EPE-PEMC 2006, pp 1614–1619, 12th
International. 30 Agosto 2006 1 Septiembre
2006.
[7] J. Kouta, A. El-Ali, N. Moubayed, and
R. Outlib
“Improving the incremental
conductance control method of a solar
energy conversion system”, International
Conference on Renewable Energy and
Power Quality (ICREPQ'08), Santander,
Spain, March 12-14 2008.
[8] Castro, Energias Renováveis e Producao
Descentralizada, Introducao a energía
fotovoltaica, Rui M.G. Castro, Universidad
Técnica de Lisboa, 2004.
Jaime Paúl Ayala Taco.Ingeniero Electrónico graduado
en la Escuela Politécnica del
Ejército (ESPE) en 1997, obtuvo
su MBA en la ESPE en 2000 y
su maestría en Mecatrónica en
la Universidad Politécnica de
Cataluña-España en 2004.
Actualmente es candidato a Doctor en Ciencias en
Automática y Controles por la CUJAE Cuba. Su
campo de investigación se encuentra en los
accionamientos estáticos y control avanzado e
inteligente en aplicaciones de electrónica de potencia..
57
Generación Eólica en Ecuador: Análisis del Entorno y Perspectivas de
Desarrollo
E. A. Barragán
Universidad Politécnica Salesiana - Universidad Católica de Cuenca
Resumen— Se investiga cuáles son los factores
clave para propiciar el desarrollo de la generación
eólica en el Ecuador, para ello se analizaron las
condiciones financieras y económicas locales.
Se determina si los precios de generación no
convencional, establecidos en el Ecuador para la
energía eólica son atractivos para que un proyecto
de este tipo pueda ser financieramente sostenible
en el tiempo. La estimación se la realiza utilizando
los índices financieros como el Valor Actual Neto
y la Tasa Interna de Retorno. Además se hace un
análisis de sensibilidad para determinar cómo se
modifican estos índices al variar el precio de la
energía, el factor de planta o la tasa de descuento,
entre otros.
termoeléctrica. A más de ello, la creciente posibilidad
de financiar proyectos vinculados a las energías
renovables a través del Mecanismo de Desarrollo
Limpio (MDL), hacen ver un posicionamiento cada
vez más interesante de las fuentes de generación no
convencionales en el Ecuador. En el caso de la energía
eólica, se encuentran en construcción y evaluación
varios proyectos que entrarán a despachar energía
en el Sistema Nacional Interconectado (SNI) en los
próximos años.
En los registros estadísticos mundiales referentes
a potencia eólica disponible, se indica que mientras
en el año 1992 se tenían 2 278 MW instalados, en
el 2012 esta cifra subió a 282 275,300 MW. Estos
datos demuestran que esta tecnología está siendo
considerada en los horizontes energéticos de los
países desarrollados. En el caso Latinoamericano,
Brasil, México y Costa Rica, tienen la mayor cantidad
de potencia, sin embargo todavía no es comparable
con los países que tienen los primeros puestos en
potencia instalada, como Estados Unidos, China y
Alemania [1]. La potencia instalada existente en
Latinoamérica, aunque marginal en comparación
al total mundial, contrasta con el potencial posible
de instalar, y con los proyectos que se encuentran
en diferentes fases de desarrollo. Por ello se prevé
un importante incremento de la generación eólica
en Latinoamérica, y en particular en el Ecuador. La
Fig. 1, indica el posicionamiento a nivel mundial de
diversos países en relación a la potencia instalada.
Palabras clave— Energías renovables, energía
eólica,
análisis
financiero,
sostenibilidad
energética.
Abstract— Local financial and economic conditions
were analysed in order to research the key factors
for favouring the development of wind power
generation in Ecuador. This determines whether the
non-conventional generation prices, established in
Ecuador, for wind energy are attractive enough for
a project of this type to be financially sustainable
over time. The estimate is performed using
financial indices such as the Net Present Value and
the Internal Return Rate. A sensitivity analysis
was also performed to determine how these indices
are modified with variations in the energy price,
plant factor or discount rate, among others.
Index Terms— Renewable Energies, Wind Energy,
Financial Analysis, Energy Sustainability.
1. INTRODUCCIÓN
En el Ecuador se están dando pasos para que
la matriz de generación de energía eléctrica se
diversifique. Según el Ministerio de Electricidad y
Energía Renovable del Ecuador (MEER), hasta el año
2020, se prevé un escenario de potencia instalada de
al menos 80% de hidroelectricidad, complementado
por un 10% de otro tipo de energías renovables (solar,
eólica, geotérmica, etc.) y el resto por generación
Figura 1: Comparativa de la potencia instalada en el año
2012]
58
permitirán garantizar la continuidad de funcionamiento
de la central eólica. La metodología utilizada se la
conoce como "Método Dinámico de Selección de
Inversiones", y considera el valor del dinero con
el paso del tiempo. De esta manera se establecen
parámetros que permiten comparar una inversión en
términos del valor actual. Así, se comparan todos los
beneficios con todos los costos en los que se incurrirá
a lo largo de la vida útil del proyecto. Desde un punto
de vista financiero, la central debería realizarse sólo si
los beneficios son mayores que los costos.
2. JUSTIFICACIÓN DEL TRABAJO
La energía de las centrales de generación, con
fuentes consideradas como no tradicionales, en
Ecuador tienen un precio preferencial [2]. En este
trabajo se analiza si los precios de energía para la
generación eólica son atractivos, y mediante un
análisis de sensibilidad, se determinan los factores que
influyen al momento de realizar un proyecto de este
tipo. Estos estudios son comunes, tal como se indica
en [3] y [4], sin embargo es indispensable realizar una
particularización para la realidad local.
Como los costos y beneficios varían año a año,
estos son actualizados a una misma tasa de descuento
al primer año del proyecto. Esta metodología utiliza
los siguientes conceptos [5], [6], [7]:
En España, por ejemplo, se ha definido que los
costos por kW instalado de potencia eólica han
tenido un descenso significativo básicamente por tres
factores:
• Tasa de descuento (r): es una medida financiera
que se aplica para determinar el valor actual
de un pago futuro. Puede ser real o nominal,
según se considere o no la inflación.
• Valor actual neto (VAN): Es la diferencia entre
el valor actual y el desembolso inicial, dada
por (1).
• Economía de escala: fabricación en serie de
aerogeneradores.
• Tamaño de las unidades: aerogeneradores
con mayor potencia por turbina, permiten
una mejor ocupación del terreno, menor peso
específico de los equipos u otros factores que
significan menos costes por kW instalado.
• Aumento de la oferta tecnológica: mayor
cantidad de marcas dan lugar a una mayor
competencia, y a mayor gama de soluciones,
que a la larga permiten rentabilizar mejor un
proyecto.
(1)
Donde A, es el desembolso inicial; Qi, son los flujos
de caja en un periodo i; r, es la tasa de descuento.
Una inversión será aceptada si el VAN es mayor o
igual a cero (punto en el cuál la inversión devuelve
la tasa deseada). Mientras mayor es el VAN, más
atractivo es el proyecto en términos financieros.
El Ecuador aunque no es fabricante de estas
infraestructuras, puede ser beneficiario de la reducción
de costos en la construcción y operación de las mismas.
Para potenciar el desarrollo de estas tecnologías, es
ineludible determinar convenientemente los precios
de la energía, para que los inversores tengan asegurada
una rentabilidad o para definir si es necesario
mecanismos que viabilicen estos proyectos.
•
3. METODOLOGÍA UTILIZADA
Tasa interna de retorno (TIR): es la tasa de
descuento que hace que el VAN sea igual a
cero. Una tasa de descuento será aceptada si
es mayor o igual al costo de oportunidad del
dinero (es decir el mejor uso alternativo si no
se invierte en el proyecto).
4. CONDICIONES PARA EL ANÁLISIS
FINANCIERO DE UNA CENTRAL EÓLICA
EN EL ECUADOR
El estudio financiero de todo proyecto se realiza
con el fin de orientar la decisión de ejecutarlo o no.
Básicamente corresponde a un análisis de costos
y beneficios, que ocurren en diferentes periodos de
tiempo. A este análisis se lo conoce como Evaluación
Financiera de Proyectos y va de la mano con una
evaluación económica, ambiental, institucional y
legal [5], [6], [7].
Para la evaluación financiera se requiere identificar
los costos, beneficios y los años en que se efectúan
cada uno de ellos, así como los incentivos que
considera la normativa ecuatoriana. Sin duda la falta
de datos puede ocasionar errores en los resultados
que se obtengan. A continuación se indican los datos
y las fuentes utilizadas, tratando de que sean lo más
reales, para evitar distorsión en el análisis.
El análisis financiero, permite determinar el flujo
real de dinero que se requiere para el proyecto y busca
prever si se recuperará o no la inversión, pagándose
además los costos de operación y mantenimiento que
59
25% aceptable y superior a 30% bueno [7]. El factor
de planta (FP) para generación eólica se lo puede
relacionar con la velocidad del viento, utilizando
las curvas de potencia de los aerogeneradores. El FP
por tanto es crucial para determinar la viabilidad de
un proyecto, pues es un indicador de la energía que
una central eólica podría generar. Además se puede
considerar una disponibilidad técnica entre 90%
y 95%, y pérdidas por los circuitos en las líneas y
transformador del 4 %, además de pérdidas por el
efecto sombra (si se colocan las turbinas en conjunto)
de alrededor del 5 % [7], [9], [10].
4.1. Tiempo de vida útil
El tiempo de vida útil de un aerogenerador es de
20 a 25 años, sin considerar repotenciación [3], [5],
[7], [8].
4.2. Potencia instalada
Un parque eólico puede estar formado por un gran
número de aerogeneradores, siendo el límite principal
la potencia que se instale y el recurso existente. La
Regulación CONELEC 004/11 (“Tratamiento para
la Energía Producida con Recursos Energéticos
Renovables No Convencionales), establece que en
el caso de las tecnologías no renovables, como las
centrales eólicas, se reconocerá un precio de energía
preferencial para centrales de generación, salvo para
la energía hidroeléctrica para la cual se define un
límite de potencia (50 MW).
4.6. Precio de la energía
La Regulación CONELEC 004/11, establece
los precios de energía de la generación eólica en
9,130 ¢USD/kWh. La vigencia de los precios será
de 15 años a partir de la fecha de suscripción del
título habilitante, (31 de diciembre de 2012, según
la regulación utilizada). Cumplido el periodo de
vigencia, las centrales renovables no convencionales
operarán con un tratamiento similar a cualquier
central de tipo convencional, de acuerdo a las normas
vigentes a esa fecha. Sin embargo se anota como
particularidad que el precio de venta de la energía
de estas centrales después de concluido el periodo
de precios preferente, podrá negociarse según la
normativa que esté vigente. Considerando esto
se asumen dos precios en el análisis, uno hasta los
primeros 15 años, y luego se establece un precio
estimado después de este periodo. El segundo precio
se considera como 4,680 ¢USD/kWh; obtenido a
partir del precio promedio vigente en el año 2011 , y
considerando que se ha incrementadoexclusivamente
por la influencia de la inflación (3,330 % para el año
2010).
4.3. Costo del kW instalado
El costo instalado de una central eólica depende
de varios factores, por ejemplo en Europa, el costo
de potencia instalada por kW varía dependiendo del
país y está comprendido entre 1 000 €/kW a 1 350
€/kW . El rango de variación además depende de
la tecnología, tamaño de las máquinas, complejidad
geográfica y topográfica o distancia a la red [3].
2
Los costos de los proyectos eólicos en el Ecuador
varían en un rango amplio, por ello no es fácil
establecer un costo promedio para el caso ecuatoriano,
y más bien los datos reales dependen del análisis que
se efectúen en cada caso [9].
3
4.4. Tiempo en la ejecución del proyecto
La construcción de un parque dependerá de
varios factores. En el caso ecuatoriano los proyectos
analizados de 5 a 50 MW, tienen un tiempo de
ejecución entre uno y dos años [9].
4.7. Pago adicional por transporte
En la Regulación 004/11, no se consideran pagos
adicionales de transporte. Sin embargo, se efectúa el
análisis de sensibilidad asumiendo, que, a los precios
fijados para la energía medida en el punto de entrega, se
sumará un pago adicional por transporte, únicamente
en el caso de requerirse la construcción de una línea
de transmisión. Esta consideración se la hace tomando
en cuenta que las anteriores regulaciones incluían un
pago adicional por transporte de 0,060 ¢USD/kWh/
km, con un límite máximo de 1,500 ¢USD/kWh [2].
4.5. Factor de planta
Es la relación entre la energía producida en un
determinado periodo, respecto a la potencia asignada
al generador en dicho periodo. Se debe anotar que los
factores de planta de los aerogeneradores en operación
suelen estar entre el 30% a 40%, siendo mayor a
1
2
Para la elaboración de este documento se consideró esta regulación, y no la
Regulación para la Participación de los Generadores de Energía Eléctrica producida
con Recursos Energéticos Renovables No Convencionales (Regulación No.
CONELEC 001/13), actualmente vigente.
3
Los costos presentados son mencionados en el informe “The Economics
of Wind Energy”, de la Asociación Eólica Europea, del año 2009.
60
Los costos medios de generación vienen dados por resoluciones emitidas por el
CONELEC. Por ejemplo según la Resolución Nº 013/11, del 17 de marzo de 2011,
el costo medio de generación para el periodo enero – diciembre 2011 fue de 4,653
¢USD/kWh.
además se asume un incremento anual del 3,330%,
por la inflación. Hay otras referencias en las cuáles
se indica que los costos son del 20% de la facturación
anual [6].
4.8. Ingresos por el Mecanismo de Desarrollo
Limpio (MDL)
El MDL, contenido en el Artículo 12 del Protocolo
de Kyoto, permite a los gobiernos o entidades privadas
de países industrializados implementar proyectos
de reducción de emisiones en países en desarrollo,
y recibir créditos en la forma de "certificados de
reducción de emisiones", o CREs, los cuáles pueden
ser contabilizados dentro de sus objetivos nacionales
de reducción.
4.10. Impuesto a la renta
Según el Código de la Producción , en el artículo
24, numeral 2, se establece que a los sectores que
contribuyan al cambio de la matriz energética, se
reconocerá la exoneración total del impuesto a la
renta (IR) por cinco años a las inversiones nuevas que
se desarrollen en estos sectores. Según la disposición
reformatoria segunda a la Ley Orgánica del Régimen
Tributario Interno, se indica que esta exoneración
contará desde el primer año en el que se generen
ingresos atribuibles directa y únicamente en lo
correspondiente a la nueva inversión. Su aplicación
se la realizará, entre otros, a los sectores económicos
prioritarios en los cuáles se incluye a las energías
renovables.
6
Si se considera que el proyecto es aplicable para
ser aprobado como un proyecto MDL, podrá ser
financiado con créditos de carbono. El aporte que se
recibirá estará determinado por la cantidad de dióxido
de carbono equivalente (CO2eq) que es capaz de
desplazar. El financiamiento se lo calcula en función
de las toneladas de CO2eq, evitadas que tienen una
correspondencia en CREs, siendo cada tonelada igual
a un CRE.
4
Se debe estimar la reducción de emisiones de CO2,
producidas por la generación que entre a operar en el
SNI. El objetivo es determinar las toneladas de CO2,
con un factor de emisión (FE), como se indica en (2):
RE=FE ×E El artículo 9 de la Ley de Régimen Tributario
Interno anota que las instituciones públicas serán
exentas al pago del IR. Mientras que para sociedades ,
el Código de la Producción, indica que el IR será de
22 % sobre la base imponible.
7
(2)
4.11. Amortización
Donde RE, son las reducciones evitadas de CO2; en
toneladas; FE , es el factor de emisión en toneladas de
CO2/MWh. E; es la energía que se espera que genere
la central eólica en MWh.
Con el propósito de determinar la base imponible
sujeta al IR, se deducen los gastos que se efectúen
con el propósito de obtener, mantener y mejorar los
ingresos de fuente ecuatoriana que no estén exentos.
5
Luego con el valor de los CREs se puede calcular el
total de ingresos por este concepto.
Así se aplican una serie de deducciones, entre
las cuáles se tiene la depreciación y amortización,
conforme a la naturaleza de los bienes, a la duración
de su vida útil, a la corrección monetaria, a la
técnica contable así como a las que se conceden por
obsolescencia. Estableciéndose para instalaciones,
maquinarias, equipos y muebles un 10 % anual, o
lo que equivale a una depreciación de 10 años, en
valores constantes (Inversión / 10)8.
4.9. Costes de explotación
Los costes de explotación pueden incluir seguros,
impuestos, alquiler de terrenos, gestión administrativa,
operación, mantenimiento y/u otros. La experiencia
en el Ecuador con respecto a los valores de estos
costos es prácticamente nula, por lo que se utiliza
información de fuentes bibliográficas. Estos costos se
suelen presentar en USD/kWh o en porcentaje de la
inversión. En el primer caso puede estar en el rango
de 0,014 a 0,018 $USD/kWh [3], [7]. En el segundo
caso, se estima que representa entre el 3,3% al 5% de la
inversión en cada año [5]. Esta última estimación, sin
embargo, considera que los costos son independientes
del régimen de operación de la central. Se considera
el primer caso para realizar el estudio financiero,
4
5
Entre las reformas que introduce el Código de la
Producción, a la Ley Orgánica de Régimen Tributario
Interno, se indica que la depreciación y amortización
que corresponda, entre otras a la adquisición de
mecanismos de generación de energía de fuentes
renovables (solar, eólica o similares) y a la reducción
de emisiones de gases de efecto invernadero, se
6
7
El CO2eq, representa la equivalencia en CO2 de cualquier otro gas de efecto
invernadero
En el caso ecuatoriano para el periodo 2007-2009, se estimó el FE del SNI para
proyectos eólicos en 0,629 toneladas CO2/MWh
8
61
R. O. 351, del 29 de diciembre de 2010
Personas jurídicas que realizan actividades económicas que pueden ser privadas o
públicas, de acuerdo al documento de creación. Fuente: www.sri.gob.ec
Artículo 25. Reglamento para la Aplicación de la Ley Orgánica de Régimen
Tributario Interno. Decreto N°1051, R. O. 337 de 15 de mayo de 2008.
deducirán con el 100% adicional, previo existir una
autorización por parte de la autoridad competente.
Además se indica que no podrá superar un valor
equivalente al 5% de los ingresos totales.
la tasa de interés activa, y adicionalmente se considera
el efecto de la inflación. Es decir se emplea la tasa de
interés real que se determina mediante (4) [12].
4.12. Impuesto al valor agregado
(4)
donde ia, es la tasa de interés (activa); π, es la
inflación.r, es la tasa de interés real.
La Ley del Régimen Tributario Interno9, artículo
56, indica que el servicio público de energía eléctrica
está gravado con tarifa cero, en lo que al Impuesto
de Valor Agregado (IVA ) se refiere. Además, en el
Reglamento de Aplicación de la Ley del Régimen
Tributario , se estipula en el artículo 177 que se
comprende como servicio de energía eléctrica entre
otras fases a la generación.
La tasa ia, para este tipo de proyectos es preferible
que no sea la que da la banca privada ecuatoriana ,
pues suele ser mayor si se compara con las que dan los
organismos internacionales de crédito. Por ejemplo el
Banco Interamericano de Desarrollo (BID), ofrece
tasas de alrededor del 5% .
4.13. Tasa de descuento
4.15. Apalancamiento
La tasa de descuento utilizada en un flujo financiero
corresponde a la rentabilidad que un inversionista
exige a una inversión, al renunciar a un uso alternativo
de los recursos. La Superintendencia de Compañías
del Ecuador, la define como el tipo de interés que se
utiliza para calcular el valor actual de los flujos de
fondos que se obtendrán en el futuro. Cuanto mayor
es la tasa de descuento, menor es el valor actual neto.
El apalancamiento es el uso de endeudamiento
para financiar una operación (Deuda Financiera Neta/
[Patrimonio Neto + Deuda Financiera Neta]). Esto
implica que el proyecto no se realiza necesariamente
con recursos propios.
10
14
11
15
5. ANALISIS DE SENSIBILIDAD
La técnica contable estipula la valoración anual,
que se muestra en la Tabla 1, con el fin de determinar
los flujos de caja desde el año en que se comienza la
producción.
Para calcular la tasa de descuento, se determina el
costo ponderado de capital (Weighted Average Cost
of Capital, WACC) , que es un promedio de los
costos relativos a cada una de las fuentes de fondos
del proyecto, y se define por (3) [11], [12]:
12
Tabla 1: Rubros considerados en el Flujo de Caja
(3)
Donde E/A , es el porcentaje de capital propio
utilizado en el proyecto; D/A, es el porcentaje de
préstamo utilizado en el proyecto; kd, es el costo de la
deuda, y se debe al hecho de que el préstamo deberá
desembolsarse en una fecha futura.
13
4.14. Tasa de interés
La tasa de interés es el porcentaje al que está
invertido un capital en una unidad de tiempo. Se
utiliza para determinar los pagos que se deberán hacer
anualmente en un periodo determinado (se asumen 10
años para este estudio) a la entidad que financie el
parque eólico. En el caso de un préstamo se considera
9 R.O. 242, 29 de diciembre de 2007
10 El impuesto al valor agregado (IVA), grava al valor de la transferencia de dominio
o a la importación de bienes muebles de naturaleza corporal, en todas sus etapas de
comercialización, y al valor de los servicios prestados
14 En el año 2010, las tasas activas oscilaron entre el 8,640 % al 9,130 %..
15 Las tasas de interés del BID, están basadas con la Tasa de Interés Basada en LIBOR
11 Decreto Ejecutivo 1051, R.O.15 de mayo de 2008.
12 La Regulación CONELEC 003/11, indica también la forma de cálculo
del CPPC, ó Costo Promedio Ponderado de Capital.
13 E, es el patrimonio, D es la Deuda, y A=E+D
(siglas del inglés “London Interbank Offered Rate”), y es el tipo de interés promedio
diario en el mercado interbancario de Londres. Fuente: www.iadb.org, www.bce.fin.
ec..
62
El análisis financiero se lo realiza variando los
siguientes parámetros: tasa de descuento, incremento
anual de costos, costos de explotación, factor de
emisión del sistema nacional interconectado, precio
de los CRES, precio por transporte, precio de la
energía de los primeros 15 años, precio de la energía
después de los 15 años, FP, intereses, inversión,
potencia y apalancamiento. El caso base (sector
público, sin considerar utilidades e IR en el flujo de
caja) considera los parámetros presentados en la Tabla
2. Para determinar la sensibilidad de los parámetros, a
cada uno se le hace variar un ±10 %, de su valor base.
Figura 2: Variación porcentual del VAN, pendiente positiva
En la Fig. 2, se refleja que el precio de la energía
en los primeros 15 años, así como el FP son los
parámetros más sensibles; variaciones porcentuales
de ±30 % implican hasta un ±50 % de variación
del VAN. Por lo tanto, un mayor precio de energía
o una mayor energía generada significarían mayor
rentabilidad financiera.
Tabla 2: Datos de entrada del caso base
En la Fig. 3, el parámetro más sensible es el
costo de inversión por kW de un parque eólico (un
determinado porcentaje de variación de la inversión
resulta en una variación de un poco más del doble del
VAN), seguido por la potencia (para un determinado
porcentaje de variación de la potencia, el VAN varía
en el mismo porcentaje); en otras palabras a menor
costo de inversión o menor potencia del parque, el
VAN aumenta, lo que haría más rentable el proyecto.
5.1. Sensibilidad del VAN
La sensibilidad financiera del proyecto definida por
el VAN, se puede apreciar en la Fig. 2 y Fig. 3. En
dichas figuras, se observa cuál es la variación frente
a los supuestos anteriormente citados. Los resultados
indican que a medida que el factor de emisión, el
precio de los CREs, pago por transporte, precio de
la energía y el FP se incrementan, la variación del
VAN también; es decir, tienen una pendiente positiva
(Fig. 2). Para el resto de parámetros la pendiente es
negativa (costos de explotación, incremento anual
de costos, tasa de descuent o, interés, potencia y
apalancamiento), esto se ve reflejado en la Fig. 3.
En otras palabras, a medida que disminuye del valor
base, el VAN se incrementa.
Figura 3: Variación porcentual del VAN: pendiente negativa
5.2. Sensibilidad de la TIR
Una TIR igual o superior a la tasa de descuento
“base” indica que la inversión es aceptable. En la
Fig. 4 y Fig. 5, se muestra cuál es la TIR para el caso
base, y los resultados obtenidos para las variaciones
porcentuales de los parámetros analizados. En
general, salvo para casos extremos de variación del
precio de la energía en los primeros 15 años, el FP, así
como la inversión, presentan condiciones favorables
para la inversión.
63
En la Fig. 4, se muestra que conforme se
incrementa la variación porcentual de los parámetros
indicados (factor de emisión, precio de CERs, pago
de transporte, precio de energía y FP) la TIR también
lo hace. El FP es el parámetro más sensible seguido
del precio de energía en los primeros 15 años (con
variación porcentual de +70%, se llega hasta un 550%
de variación de la TIR).
o tecnológicos pasando por la idiosincrasia y
escepticismo por parte de los promotores locales. En
Europa, la Comisión Europea destaca que aún existen
barreras administrativas, inconvenientes en el acceso
y conexión a la red; por ello se han planteado políticas
para favorecer a las energías renovables [13].
Para llegar a la definición de los factores claves,
que condicionan o no el desarrollo de la industria
eólica, se utiliza el modelo desarrollado por Espinoza
J. y Vredenburg H. [14]. El modelo establece que
los indicadores económicos son insuficientes para
explicar el desarrollo de esta industria considerada
como “sostenible”. Además se utilizó parte de la
metodología para realizar escenarios descrita en
[15] y [16]. Mediante el modelo y la metodología
mencionada se determinó, en función de percepciones
de técnicos del sector energético nacional , cuáles son
los aspectos que se debe dar prioridad al momento de
establecer políticas u hojas de ruta para la promoción
de la energía eólica.
16
Para determinar cuáles son los factores que
inciden en el desarrollo de esta industria, se planteó
un modelo que considera que no solo los factores
macroeconómicos son importantes variables al
momento de describir el éxito de la industria, sino hay
que considerar otros factores como los institucionales
y específicos de un proyecto [14].
Figura 4: Variación porcentual de la TIR; pendiente positiva
Con el fin de definir la importancia de cada uno
de los factores mencionados se generó una escala
de valoración. El análisis de estos factores, y su
importancia pueden permitir establecer políticas para
la promoción de este tipo de tecnologías. Como se
observa en la Fig. 6 el componente financiero y el
estado de la economía según los técnicos nacionales,
son claves para posibilitar el desarrollo de la industria,
pero hay otros que deben ser considerados para crear
un marco favorable.
Figura 5: Variación porcentual de la TIR: pendiente negativa
En el caso de una pendiente negativa (Fig. 5) a
medida que los parámetros se incrementan la TIR
disminuye. La inversión resulta ser el parámetro más
sensible, así un -30% de variación modifica incluso
un 500% la TIR, en menor proporción se tiene los
costos de explotación, el interés así como el resto de
parámetros analizados.
.
6. EL DESARROLLO DE LA INDUSTRIA
EÓLICA EN EL ECUADOR
El impulso de la industria eólica en el Ecuador
sin duda depende del modelo de desarrollo que se
implemente. Al ser una tecnología que debe entrar
en competencia con las tecnologías existentes afronta
dificultades para su penetración, estas dificultades van
desde aspectos financieros, regulatorios, económicos
Figura 6: Desarrollo de la industria eólica: Caso Ecuador
16 Las entrevistas fueron realizadas en las ciudades de Cuenca, Loja, Quito
y Guayaquil, la mayoría de ellas se las efectuó personalmente..
64
Según el modelo descrito en [14], el componente
económico (rentabilidad) resultó ser el que más
influiría en el desarrollo de la industria eólica.
Sin embargo, existen otros factores que se deben
considerar al momento de formular políticas que
incentiven la industria eólica en el Ecuador.
7. CONCLUSIONES Y RECOMENDACIONES
Para la evaluación financiera se necesita una serie
de datos de entrada. La falta de datos precisos puede
hacer que se incurra en errores en los resultados que
se obtengan. Más allá de extender los resultados a un
proyecto específico, la investigación trató de definir
mediante un análisis de sensibilidad, qué datos de
entrada son más críticos para la evaluación financiera
en este tipo de proyectos.
El precio de la energía convencional no recoge los
costos externos ambientales y sociales. Es decir los
costos asociados a la remediación de los procesos
contaminantes, a la salud o impacto visual. Estas
externalidades, sin duda son difíciles de cuantificar,
pero son factores, que favorecerían la elección de
la tecnología eólica, al momento de compararla con
otras tecnologías. En el caso ecuatoriano es deseable,
por ejemplo, que los apoyos vía precios, se estimen en
función del ahorro de los combustibles fósiles que se
dejarían de importar.
El análisis de sensibilidad consistió en variar 13
parámetros. Se realizó la sensibilidad considerando
que el proyecto lo realiza el sector público. Puesto que
en el sector público no se consideran las utilidades,
tanto la TIR como el VAN, tienen mejores resultados
si se compara con el desarrollo de un proyecto eólico
por un promotor privado.
Si se varía exclusivamente la inversión o el precio
de la energía los primeros 15 años, se pueden llegar a
resultados financieros atractivos. Los otros parámetros
no afectarían significativamente al financiamiento.
Sin duda, al variar dos o más parámetros a la vez se
puede tener resultados de TIR y VAN favorables.
8. AGRADECIMIENTOS
Los resultados expuestos reflejan (para los
supuestos considerados) que financieramente los
proyectos eólicos no serían atractivos en el Ecuador.
Los resultados de la investigación indican que para
tener una TIR mayor al 7%, con una VAN positiva, se
necesitaría como máximo una inversión de 900 USD/
kW (40% menos del costo considerado como base), o
un precio de energía a 0,150 USD/kWh (60%, más con
respecto al precio base). La variación individual del
resto de parámetros no alteran significativamente la
TIR y el VAN. Con ello se concluye que la normativa
desarrollada en el país no promueve proyectos sino
tecnologías.
REFERENCIAS BIBLIOGRÁFICAS
Al profesor Juan Leonardo Espinoza, por
permitirme conocer otras posibilidades de análisis. A
la Universidad Politécnica Salesiana, por la confianza
depositada.
[1] WWEA. (2010). World Wind Energy Report
2012. World Wind Energy Association, pp 1819 Disponible (on line) en:
h t t p : / / w w w. w w i n d e a . o r g / w e b i m a g e s /
WorldWindEnergyReport2012_final.pdf
[2] CONELEC, (2000; 2002; 2004; 2006). “Precios
de energía eléctrica proveniente de centrales
de energía renovable no convencional”.
Regulaciones CONELEC-008/00; 003/02;
004/04; 009/06. Quito, Ecuador:
A pesar de la falta de rentabilidad financiera, hay
razones para que se incentive el desarrollo de la
industria eólica. En el caso particular del Ecuador, su
fomento estaría ligado a la necesidad de ampliar la
matriz energética, evitar en el futuro la dependencia
externa, la generación de electricidad a partir de
fuentes limpias, reducción de la contaminación,
reducción del éxodo rural, reducción del consumo
de combustibles fósiles, incremento de la seguridad
de abastecimiento, y el fomento de la investigación
y desarrollo.
[3] Moreno, J., Mocarquer, S., & Rudnick, H.
(2010). “Generación eólica en Chile: Análisis
del entorno y perspectivas de desarrollo”.
Systep Ingeniería y Diseños, pp. 1-10.
Disponible (on line) en:
http://www.systep.cl/documents/Articulo%20
P235-MorenoMocarquerRudnick.pdf
[4] Olmos Garcia, V., Romero, Z. J., Benavides
Gonzales, B. (2000). “Análisis económico
de un parque eólico”. Energía: Ingeniería
energética y medioambiental. Vol 26, pp. 2541.
De los mecanismos de promoción y financiamiento
vigentes en el Ecuador, el conocido como el Feed-in
Tariff, o de tarifa regulada es el que tiene más impacto
en la promoción de la energía eólica.
65
[5] Creus Solé, A. (2008). Aereogeneradores
(Primera Edición ed.). España: Editorial
Técnica.
[14] Espinoza, J. L., Vredenburg H.. (2010).
”Towards a model of wind energy industry
development in industrial and emerging
economies”. Global Business and Economics
Review, Vol. 12, pp 203-229.
[6] Escudero, J. M. (2008). Manual de energía
eólica. Mundi Prensa, 2da Edición, Madrid,
España.
[15]Dyner, I. (2009). Mercados Eléctricos.
Universidad de Cuenca, Apuntes de Clase,
Maestría en Sistemas Eléctricos de Potencia,
Cuenca.
[7] Rodríguez, J. L., Burgos, J. C., Arnalte, S.
(2003). Sistemas eólicos de producción de
energía eléctrica. Editorial Rueda, 1ª Edición,
Madrid, España:
[16] Smith, R., Vesga, D., Cadena, A., Boman, U.,
Larsen, E., Dyner, I. (2005). “Energy scenarios
for Colombia”. Futures, vol 37, pp 1-17.
[8] Ackermann, T. (2005). Wind power in power
systems. John Wiley & Sons Inc, Gran Bretaña
[9] MEER, Folletos de los proyectos eólicos:
Salinas, Villonaco, Chinchas, Ducal. Quito,
Ecuador.
Antonio Barragán Escandón.Nació en Cuenca, Ecuador en
1975. Recibió su título de
Ingeniero
Eléctrico en
la
Universidad de Cuenca, Cuenca
2002; Máster en Energías
Renovables de la Universidad de
León, España; Máster en Sistemas
Eléctricos de Potencia por la Universidad de Cuenca.
Además, tiene posgrados en redes de telecomunicación,
auditorías de gestión de la calidad y medio ambiente.
Es consultor independiente en el sector eléctrico y
profesor universitario. Sus temas de interés son: el
Desarrollo Energético Sostenible, Mercados
Energéticos y Energías Renovables, particularmente
la Energía Eólica.
[10] González Velasco, J. (2009). Energías
renovables, Editorial Reverté, 1ª Edición,
Barcelona, España.
[11] Sapag Chain, N., Sapag Chain, R. (1995).
Preparación y evaluación de proyectos.
McGraw Hil, 3ª Edicicón, Bogotá, Colombia:
[12] Dumrauf, G. L. (2003). Finanzas corporativas.
Buenos Aires, Grupo Guía S.A. Argentina:
[13] Espinoza, J. L, Barragán, E., (2013).
“Renewable Energy Policy and Legitimacy:
a Developing Country Case”. International
Conference on Renewable Energies and Power
Quality, vol 11, pp. 306, Bilbao, España.
66
Análisis de Factibilidad para la Implementación de la Gestión de la
Demanda del Sector Industrial
P. A. Méndez Santos
Empresa Eléctrica Regional Centro Sur C.A. - Universidad de Cuenca.
Resumen— El presente trabajo realiza un análisis
de factibilidad de aplicación que tendría la
“Gestión de la Demanda de Energía Eléctrica”
(GD) en el sector industrial que es atendido por
la Empresa Eléctrica Regional Centro Sur C.A.
-CENTROSUR- de la ciudad de Cuenca, para esto
se utiliza como caso piloto a la industria Cartones
Nacionales S.A. -CARTOPEL-.
CARTOPEL (National Cardboard Industry) has
been used as a pilot project.
The analysis begins with the characterization of
the production process and the determination
of the factory load distribution. Then, by using
measurement statistics, the industry’s daily
electrical power consumption is determined
along with the load that can be managed. Such
results allow for an economic assessment on what
CARTOPEL could save on its electricity supply
costs, as well as the economic impact of load
management on the utility’s load pattern.
El análisis inicia con la caracterización del
proceso de producción y la determinación del
balance de carga de la fábrica, luego, con el uso
de las estadísticas de medición, se determina el
patrón de consumo diario de energía eléctrica
que hace la industria y la carga en capacidad
de ser gestionada. Estos resultados permiten la
evaluación económica del ahorro que podría tener
CARTOPEL sobre sus costos de abastecimiento
eléctrico. Así como también el impacto económico
que tendría la gestión de carga sobre el patrón de
demanda de la distribuidora.
To conclude, the current Regulations in Ecuador,
related to the subject of efficient energy use
and energy reduction for industrial clients, are
reviewed and analysed in order to evaluate the
calculation methods and results when applied
to CENTROSUR. Based on this information,
some modifications and characteristics, for a load
management in the industrial sector Regulation,
are proposed.
Finalmente se efectúa una revisión y análisis de la
Regulación vigente en el Ecuador relacionada con
la temática de reducción y uso eficiente de energía
para clientes industriales, con el objetivo de
evaluar sus metodologías de cálculo y resultados
de aplicación sobre la CENTROSUR y en base a
esto proponer las modificaciones y características
que debería contener una Regulación sobre gestión
de la demanda de energía eléctrica para el sector
industrial.
Index Terms— Load Management, Electric Power
Auditing, Energy Efficiency, Energy Supply, Load
Curve, Electric Power Regulation, Electric Power
Rates, Smart Grid.
1. INTRODUCCIÓN
El alto costo de generar, transportar y distribuir la
electricidad, y el incesante incremento de la demanda
de energía eléctrica, actualmente obliga a todos los
agentes del sector eléctrico (Ministerios, organismos
de regulación, control y supervisión, empresas de
generación, transmisión y distribución) a realizar
año tras año mayores esfuerzos e inversiones para
lograr abastecer el requerimiento de energía de toda
la población.
Palabras clave— Gestión de la demanda, auditoría
eléctrica, eficiencia energética, abastecimiento
energético, curva de carga, regulación eléctrica,
tarifas eléctricas, red i nteligente.
Abstract— This article presents an applied
feasibility study for “Energy Load Management”
(LM) in the industrial sector served by the
Empresa Eléctrica Regional Centro Sur C.A.CENTROSUR (The South Central Regional
Electric Utility) in the city of Cuenca. For this
purpose, the Cartones Nacionales S.A. industry, –
Los planes de eficiencia energética comúnmente
suelen estar orientados hacia la reducción del
consumo por medio del uso de máquinas, artefactos y
electrodomésticos eficientes, no obstante estos planes
67
tienen como desventaja un largo período de análisis
e implementación ya que involucran el remplazo de
toda o la mayor parte de la carga ineficiente. Acciones
de más rápida implementación y con resultados que
podrían verse en el corto plazo son los relacionados
con la gestión de la demanda.
Estos procesos en conjunto con la división
ONDUTEC conforman los sistemas de producción
de la fábrica. Por otra parte se encuentran los sistemas
de soporte a la producción, los cuales tienen una
participación transversal en la fabricación pues son
los que brindan servicios de apoyo como servicios
auxiliares de aire comprimido, iluminación, etc.
Con el fin de alcanzar un suministro eficiente y un
aprovechamiento óptimo de los limitados recursos
energéticos, la gestión de la demanda de energía
eléctrica (GD) ha venido siendo aplicada en varios
países del mundo, por ello y siendo el distribuidor/
comercializador el agente del sector que se encuentra
en mayor contacto con el usuario final de la energía,
es que en el presente trabajo se decidió realizar un
análisis de factibilidad de aplicación de la GD en la
Empresa CENTROSUR de la ciudad de Cuenca.
El segmento de análisis se centra en el sector
industrial debido a su alta intensidad de uso de
energía eléctrica y su relativamente pequeño número
de usuarios en relación con los segmentos residencial
y comercial, con lo cual potencialmente se pueden
obtener grandes reducciones de consumo gestionando
una cantidad moderada de clientes. Como caso
piloto de análisis se seleccionó al cliente de mayor
demanda de energía eléctrica en la región, en este
caso la empresa CARTOPEL de la ciudad de Cuenca,
la cual tiene una demanda que bordea los 3,2 MWh
mensuales, lo que representa aproximadamente el
5% del consumo de energía total del sistema de la
CENTROSUR.
Figura 1 : Esquema de los sistemas eléctricos de CARTOPEL
2.1. Balance energético
Con base en la esquematización de los subprocesos
productivos y su organización por sistemas se aplicó
la siguiente metodología para encontrar el balance
energético de la planta:
2. LA DEMANDA DE ENERGÍA ELÉCTRICA
EN LA EMPRESA CARTOPEL
CARTOPEL es una industria dedicada a la
fabricación de papel y cajas de cartón, internamente
se encuentra organizada en dos divisiones:
• División Molino: cuyas instalaciones producen
bobinas de papel para la exportación y/o
utilización en la fabricación de cajas de cartón.
• División Ondutec: instalación que produce
cajas de cartón corrugado para la venta a otras
empresas de manufactura de productos varios.
• La primera es en donde efectivamente
se produce el papel y tiene los siguientes
procesos:
• Recolección y almacenamiento de la materia
prima
• Preparación de la pasta
• Limpieza de la pasta
• Refinamiento
• Formación, secado, prensado y bobinado
• Línea de conversión
• Recopilación de los datos de mediciones
de corrientes y tensiones de línea, potencia
trifásica y factores de potencia de cada tablero
de control y equipo.
• Análisis estadístico de la frecuencia,
porcentajes acumulados e histograma
de valores de potencia más probables de
ocurrencia para cada tablero.
• Cálculo de la potencia media de cada equipo
utilizando los datos de corriente promedio,
tensión nominal de alimentación y factor de
potencia promedio.
• Estimación del tiempo efectivo de
funcionamiento anual a través de relacionar
los tiempos informados por el personal de
operación con el porcentaje de datos válidos
encontrados en el histórico de mediciones de
cada equipo en particular.
• Estimación del tiempo real de funcionamiento
de la carga de cada tablero en análisis para
determinar la cantidad de horas anuales que
el tablero opera con la potencia más probable
encontrada en el análisis estadístico.
• Finalmente, con los datos de potencia más
probable y horas anuales de operación, se
68
determinó la energía media anual de cada
tablero y equipo.
Tabla 1 : Porcentajes de responsabilidad de carga
Con lo cual se tiene que alrededor del 92% del
consumo de energía eléctrica es responsabilidad de
los sistemas de producción de la planta, mientras que
el restante 8% se encuentra en los sistemas de soporte.
El mayor porcentaje de consumo se encuentra en el
proceso de Refinamiento, seguido de la etapa de
Formación, prensado, secado y bobinado, entre estos
dos procesos se tiene casi la mitad del consumo de
energía de la totalidad de la planta.
Una característica importante del proceso de
producción de papel en CARTOPEL es que cada etapa
tiene una dependencia directa de la etapa o proceso
precedente, esto significa que si una de las etapas sufre
una paralización todas las etapas posteriores deberán
suspender su tarea ya que no tendrán un suministro
de material que permita realizar su trabajo. Esta
particularidad obliga a asumir que sus porcentajes
de responsabilidad de carga también permanecen
constantes a lo largo del día.
2.3. Comportamiento típico de la carga de
CARTOPEL
Figura 2 : Consumo referencial de energía eléctrica por
sistemas de la planta de CARTOPEL
De los datos históricos de consumo de energía
eléctrica de CARTOPEL, recopilados durante los
años 2010, 2011 y 2012 se ha obtenido un perfil típico
de consumo diario para esta empresa.
Figura 4 : Curva promedio de carga diaria de CARTOPEL
Figura 3 : Consumo referencial de energía eléctrica por
procesos productivos de la planta de CARTOPEL
La mayor probabilidad de ocurrencia de la demanda
máxima se presenta en el horario comprendido entre
las 02:00 y las 04:15, luego de lo cual se da un
descenso sostenido del consumo entre las 06:00 y las
07:15 aproximadamente. En el período de demanda
media, de 08:00 a 18:00 dentro de este período se
presenta la demanda mínima la cual se da hacia las
12:15, luego los valores de la curva son superiores
al promedio desde las 12:45. Durante el período
de demanda pico, de 18:00 a 22:00, la demanda de
energía comienza nuevamente a incrementarse,
presentándose un aumento sostenido a partir de las
19:15. Estas características de la curva de demanda
de CARTOPEL se repiten para los tres años en
mención, situación que permite deducir que para
2.2. Factores de responsabilidad de carga
Si se relaciona la energía estimada por el censo de
carga para cada proceso de producción, con la energía
de consumo total de la planta, los porcentajes de
responsabilidad de carga son:
69
futuros períodos de tiempo, la forma de la curva no
variará sustancialmente a excepción de los valores de
demanda, los cuales se irán incrementando en función
del aumento de consumo o maquinaria instalada.
Estos porcentajes indican una banda de variación
máxima en más o menos alrededor de la media
del horario base para los años analizados, si estos
valores se señalan en las correspondientes curvas
de duración de la demanda se encuentra que los
valores que sobrepasan los referidos porcentajes de
variación apenas representan el 1,064% del total de
tiempo en horas del año 2010. Para los años 2011 y
2012 el comportamiento de la demanda es similar a lo
anteriormente anotado, teniendo porcentajes del 2,29
y 0,39% respectivamente, lo cual refleja la variabilidad
que tienen los valores de demanda máxima y que con
una adecuada supervisión y control de la demanda se
podría alcanzar un uso más uniforme de la potencia y
por lo tanto generar ahorros importantes en los pagos
del rubro de demanda.
2.3.1 Comportamiento de la demanda máxima
Para los años 2010, 2011 y 2012, los registros
mensuales de demanda máxima observan valores
superiores a la media aritmética del horario base de
las curvas de carga diaria típica correspondientes, este
hecho permite deducir que a pesar del comportamiento
bastante regular de consumo que tiene CARTOPEL
existe un margen representativo de carga que puede
ser gestionado.
Tabla 2 : Valores de demanda máxima de CARTOPEL - año
2012
Figura 5 : Curva de duración de carga de CARTOPEL, año
2012
*Potencia media registrada en horario base para el año 2012
Como se puede observar en la tabla 2, en promedio
mensualmente existe un sobrepaso del 17,01% al
valor medio registrado durante todo el año para la
demanda máxima de horario base, de igual manera se
corrobora el hecho de que la demanda máxima ocurre
con mayor frecuencia en este horario debido a que en
10 de los 12 meses el pico de demanda se presenta
en el horario comprendido entre las 02:00 y las 05:45
3. LA DEMANDA DE ENERGÍA ELÉCTRICA
DEL SISTEMA DE DISTRIBUCIÓN DE
CENTROSUR
De acuerdo a las estadísticas del CONELEC
correspondientes al año 2009, el total de clientes de
la CENTROSUR representa aproximadamente el
8% del total de usuarios a nivel nacional. En cuanto a
la magnitud de energía, la demanda de esta empresa
representa aproximadamente el 4,5% del total de energía
a nivel nacional. De este consumo un 95% se encuentra
en las provincias de Azuay y Cañar.
2.3.2 Duración de la carga
La duración de los valores de demanda de
CARTOPEL, muestran que aproximadamente
durante un 60% del tiempo, la carga de la empresa
se encuentra por encima del valor promedio más alto
encontrado en el horario base, no obstante en función
de los registros de demanda de la empresa se tiene que
las desviaciones estándar se encuentran en valores
comprendidos entre 600 y 900kW, con lo cual el
porcentaje de variación esperado es de alrededor del
15% de la media aritmética del horario base.
3.1. Características de la demanda atendida por
CENTROSUR
Para el mes de diciembre de 2010, esta empresa
contaba con un total de 300.480 clientes, los datos de
la década 2000-2010, muestran que en promedio cada
año un 89,1% del total de clientes de la CENTROSUR
pertenecen a la categoría Residencial, mientras que cerca
del 7,62% son Comerciales, y un 2,05% son Industriales,
quedando un 1,24% repartido entre todo el resto de
categorías tarifarias.
Tabla 3 : Estadística de demanda base - 2010, 2011 y 2012
70
La categoría residencial, es la que más contribuye en la
demanda eléctrica, sin embargo una de las características
de este tipo de demanda es su alta dispersión, tanto
numérica como geográfica, es decir un gran consumo
repartido en una gran cantidad de usuarios lo cual da
como resultado un consumo promedio individual muy
reducido.
Figura 8: Consumo de energía por categoría tarifaria
de la CENTROSUR a junio 2012
4. FACTIBILIDAD DE APLICACIÓN DE
PLANES DE GESTIÓN DE LA DEMANDA
EN CARTOPEL
La evaluación del grado de factibilidad de aplicación
de la gestión de la demanda en CARTOPEL requiere
que en primera instancia se determine el porcentaje
de carga y los equipos y/o maquinaria gestionables.
Figura 6 : Demanda de energía eléctrica según las principales
categorías tarifarias atendidas por CENTROSUR
Características opuestas se presentan en las demandas
comerciales e industriales, las cuales de manera global
tienen consumos menores que el segmento residencial
pero que al estar repartidas en un número menor de
clientes presentan una menor dispersión y un mayor
consumo promedio individual.
4.1. Carga con capacidad de gestión
Debido a la alta interdependencia de los procesos
de producción de esta empresa, el patrón diario de
demanda resultante presenta un estrecho margen
de variación comprendido entre los 300 y 400kW.
Considerando esta característica, un plan de gestión
de la demanda de CARTOPEL debería considerar dos
enfoques:
Este comportamiento permite deducir que las
acciones sobre la eficiencia y uso racional del recurso
energético podrían tener alto impacto si se direccionan
sobre el segmento industrial ya que concentra una alta
intensidad energética en un relativamente reducido
número de clientes (2,05% del total del clientes en la
zona de concesión), de los cuales la mayor parte se
encuentran concentrados en una misma zona geográfica
como lo es la ciudad de Cuenca.
• Gestión de la demanda orientada hacia mejorar
el uso de la energía eléctrica y reducir los
costos de abastecimiento eléctrico.
• Gestión de la demanda orientada hacia la
modificación del patrón de demanda eléctrica
con fines de solventar restricciones de
orden técnico y/o económico del sistema de
distribución.
En el primer enfoque lo que se persigue es una
modificación del patrón de demanda eléctrica
minimizando los efectos sobre la normal producción,
para alcanzar este objetivo son útiles las estrategias
de desplazamiento de actividades productivas hacia
rangos horarios de menor costo económico tanto de
energía como potencia, así como también la mejora
en la eficiencia de funcionamiento de equipos y
maquinaria.
Figura 7: Número de clientes de la CENTROSUR a junio 2012
En el segundo enfoque, la modificación del
patrón de demanda suele requerir de importantes
disminuciones de potencia y energía en función del
71
requerimiento del sistema de la distribuidora, en este
caso la única estrategia viable es la desconexión de
carga, no obstante la gestión de demanda ayudará a
determinar un orden prioritario de desconexiones
tratando de salvaguardar en lo posible la capacidad
productiva sin llegar a una desconexión total de la
demanda de la industria.
En función de los datos recopilados en la auditoría
eléctrica, se conocen los tiempos aproximados de
operación de los equipos, este dato es fundamental para
determinar la potencia efectiva que se podría reducir
al interrumpir su operación, la potencia efectiva de
interrupción para cada equipo ha sido determinada
multiplicando el porcentaje de tiempo de uso por la
potencia del equipo.
4.1.1 Gestión para mejora de eficiencia de consumo
Tabla 5: Determinación de las potencias interrumpibles
efectivas en función del tiempo de operación aproximado
Se ha determinado que a través de variaciones
operativas en el proceso de refinamiento y en la etapa
de conversión, es posible disminuir hasta 370kW de
demanda a través de las siguientes acciones:
En el proceso de refinamiento se utilizan un total
de cuatro refinadores con una potencia efectiva de
aproximadamente 850kW, no obstante no todos los
refinadores aportan con la misma cantidad de pasta,
esto debido a que dentro de la técnica de elaboración
de la hoja de papel se tienen dos tipos de hojas que
se juntan para crear la hoja final, estos dos tipos de
hojas se denominan “Top” y “Back” con un aporte al
peso final de la hoja del 30 y 70% respectivamente.
En función de esta característica de fabricación
y conociendo que para cada hoja se utilizan dos
refinadores, es posible concluir que posiblemente
para la hoja Top pueda utilizarse solamente uno de
estos equipos. Los resultados de la auditoría eléctrica
indican que es posible prescindir de un refinador el
cual tiene una potencia efectiva de 207,10kW. En
la etapa de conversión, es posible reprogramar las
actividades de manera que no se desarrollen en el
horario de mayor coste económico, esto es entre las
horas de las 18:00 a 22:00, con esta acción se estarían
retirando aproximadamente 163kW del horario pico
de demanda.
Como se observa existen cargas cuyo tiempo de
operación es muy reducido por lo que en caso de
requerirse una reducción de demanda, su desconexión no
representaría un aporte significativo, no siendo de interés
incluirlas dentro del grupo prioritario de interrupción.
Para el caso de las cargas identificadas se excluyen del
grupo de interrupción aquellas que tienen un porcentaje
de tiempo de uso inferior al 15%, con lo cual la
potencia interrumpible se reduce a 611,74kW, es decir
aproximadamente el 10% de las demandas máximas de
los tres últimos años.
4.2. Evaluación del efecto de gestión sobre la
carga de CARTOPEL
Una evaluación del efecto que tendría la gestión de
la demanda sobre CARTOPEL es posible cuantificarla
únicamente para la gestión de mejora de la eficiencia
de consumo ya que su efecto será permanente sobre la
curva de demanda, en el caso de la gestión por restricción
del sistema de distribución el efecto dependerá del
rango horario y el tiempo de duración de la interrupción
solicitada por la distribuidora.
4.1.2 Gestión por restricción del sistema de
distribución
Del análisis de los procesos de fabricación se
encontró que existe un total de carga interrumpible
de aproximadamente 729,18kW, la cual puede
ser prescindible sin comprometer los niveles de
producción de la planta, esta carga se encuentra
agrupada en los siguientes procesos y equipos:
4.2.1 Modificación del patrón de consumo diario
Analizando las curvas promedio se observa que los
valores de demanda en los diferentes rangos horarios
cambian de la siguiente forma:
Tabla 4: Cargas y potencia interrumpible identificada en
Tabla 6: Reducción de los valores de demanda máxima
en cada rango horario
CARTOPEL que generan un mínimo impacto sobre la producción
72
La salida de operación de la etapa de conversión
durante el horario pico mejora sustancialmente la
relación de la demanda pico a la demanda máxima,
en la tabla 7 se observan los valores de la referida
relación si la medida hubiera sido adoptada desde el
año 2010.
Para la suspensión de funcionamiento de la etapa de
conversión la evaluación del efecto económico se realiza
únicamente para el costo anual de energía ya que su efecto
sobre la demanda es nulo en razón de que la demanda
máxima de CARTOPEL se presenta en el horario base,
mientras que la referida suspensión se presentaría en
horario pico.
Tabla 7: Relaciones de demanda pico a demanda máxima
estimadas
Tabla 9: Costos anuales evitados por demanda con la
suspensión de operación en la etapa de Conversión durante el
horario pico
Estos valores muestran que es posible reducir la
demanda pico en alrededor del 3,4%, sin embargo esto
no es suficiente para evitar la penalización del 20%
por demanda pico, alcanzándose solamente un ahorro
por los 207kW reducidos al sacar de funcionamiento
uno de los refinadores.
Los resultados muestran que con las acciones de
mejora operativa sería posible tener un ahorro anual
promedio de $123.424,24, valor que es referencial ya
que depende directamente de las horas de operación
estimadas del refinador a retirar de servicio así como
de la coincidencia con la demanda máxima mensual.
4.2.2 Efecto económico sobre el costo de
abastecimiento de energía
4.3. Evaluación del efecto de gestión sobre la
carga de la distribuidora CENTROSUR
La reducción de 207kW puede ser evaluada para
la totalidad de tiempo de un año en función de que
su eliminación es permanente al estar originada en
la eliminación de uno de los equipo de refinamiento,
para el caso de los 163kW de la etapa de conversión,
la evaluación deberá considerar el cálculo solamente
durante el horario de 18:00 a 22:00 todos los días del
año. Con base en lo anterior, el efecto económico
sobre el costo anual de energía para la acción de
reducir 207kW se determina como:
La gestión de la demanda de CARTOPEL
indudablemente tiene un efecto sobre la demanda de
energía de CENTROSUR, sin embargo en función
de los resultados obtenidos se observa que este no es
muy apreciable en razón de que se toma como caso de
estudio tan solo a un cliente.
Modificación del patrón de consumo diario
(1)
Realizando una comparación de la demanda de
CARTOPEL con la de la distribuidora se encuentra
que su porcentaje de participación promedio es
del 5,30%, si se recuerda que la demanda máxima
de esta industria se presenta en el horario base,
específicamente entre las 02:00 y las 4:15, y de
que la curva diaria promedio presenta reducciones
de demanda entre las 19:00 y 19:15 se determina
que esta no tiene incidencia en la demanda pico de
CENTROSUR. Por lo tanto el único efecto de la
gestión de demanda que podría ser considerado en
una evaluación económica para la distribuidora, sería
la reducción por consumo de energía en los períodos
en los cuales se aplique la gestión para solventar
restricciones técnicas y/o económicas del sistema de
distribución.
En donde RCE es la reducción de costo por energía,
HOp.A representa la cantidad de horas de operación
anuales estimadas para el refinador que se retirará de
funcionamiento, los subíndices i del 1 al 4 representan
los rangos horarios de la tarifa eléctrica aplicada a esta
industria, Hi la cantidad de horas anuales cada uno de
los períodos horarios y Prci el correspondiente precio
del kWh. Para el caso del efecto sobre el costo de la
demanda, se ha realizado el producto del costo del kW
por la potencia reducida, con estas consideraciones
los resultados obtenidos son:
Tabla 8: Costos anuales evitados por energía y demanda
con la reducción de 207kW del proceso de refinamiento
73
valor de 449.922kWh, esta energía valorada a precio
medio de compra para los años 2009 al 2012 da una
reducción promedio mensual de costos de $23.553,42.
Tabla 11: Reducción de costos por compra de energía con la
salida de operación de la carga interrumpible de CARTOPEL
Figura 9 : Porcentajes de participación de la demanda de
la subestación N°4 y de CARTOPEL en la demanda de
CENTROSUR
Efecto económico
abastecimiento de energía
4.3.1
sobre
el
costo
Los resultados económicos obtenidos muestran
que el mejor escenario para la gestión de la demanda
es su aplicación con miras a solventar restricciones
del sistema de distribución, no obstante para que esta
opción sea viable deberá tener un adecuado incentivo
económico para el cliente, de forma que éste perciba
los beneficios de consumir eficientemente y prescindir
de cargas no esenciales en condiciones emergentes,
así como también no impactar negativamente en la
economía de la distribuidora.
de
La gestión de 370kW tiene el carácter de ser
permanente en el tiempo, lo cual resulta en una
reducción de 266.400 kWh mensuales, es decir
una reducción promedio del 0,39% de la demanda
energética anual típica de la distribuidora, esta
disminución de consumo energético, valorada a precio
medio de compra da como resultado una reducción de
alrededor del 0,39% de los costos totales de compra
de energía.
1
5. ANÁLISIS DEL MARCO REGULATORIO
VIGENTE
Si bien en el Ecuador no existe un marco regulatorio
específico para la aplicación de la gestión de la demanda,
se pueden considerar los siguientes que actualmente se
encuentran vigentes:
Tabla 10: Evaluación económica de reducción de costos por
compra de energía con gestión de demanda en CARTOPEL
• La regulación sobre generación emergente
durante eventos de déficit de abastecimiento.
• Esquemas tarifarios horarios que establecen
costos diferentes para el kWh en función de la
hora a la cual se presenta el consumo de energía.
Los resultados de la evaluación muestran que
la reducción de costos es mínima en comparación
con los costos de abastecimiento de la totalidad del
sistema de distribución, por otra parte es importante
mencionar que el impacto económico que tendría la
gestión de la demanda sobre el agente distribuidor
dependerá en gran medida de los precios de la
energía en el mercado mayorista y del esquema
transaccional aplicado. En el caso de la gestión para
solventar restricciones de abastecimiento de energía
del sistema de distribución, para el cual se determinó
un valor aproximado de 611,74kW en posibilidad de
ser interrumpidos sin afectar mayormente el proceso
productivo, la potencia total gestionada considerando
la ya gestionada por mejora del proceso productivo
suma un valor de casi 982kW.
5.1. Esquema tarifario con incentivo
consumo eficiente por rango horario
La tarifa aplicada a los clientes industriales introduce
señales económicas que incentivan el uso eficiente y el
desplazamiento de la demanda hacia períodos que no
coincidan con el de mayor requerimiento energético del
sistema, las señales de incentivo, según se analizó en
puntos anteriores, se basan en precios horarios para la
energía y una penalización de hasta el 20% en función
del factor de demanda del cliente.
Para las condiciones de déficit de energía,
experimentadas durante el último trimestre del año
2009, con la carga interrumpible de CARTOPEL
saliendo fuera de operación durante el período de
baja carga de esta industria, esto es por un período de
hasta 10 horas diarias desde las 06:00 hasta las 16:00,
la reducción mensual de energía asciende hasta un
1
para
La aplicación de este esquema tarifario,
específicamente en lo referente al rubro de demanda, para
el caso de la CENTROSUR, ha dado como resultado
que en promedio aproximadamente un cuarto de los
clientes industriales con demanda horaria se encuentran
penalizados cada mes.
El precio medio de compra es obtenido como la relación entre, el total de costos de
compra en contratos regulados y mercado spot, y el total de energía consumida por
el sistema de distribución. Para los años 2010, 2011 y 2012 los precios medios de
compra de energía, para la CENTROSUR, fueron de 5,36, 5,12 y 4,76 ctv.USD/kWh
respectivamente.
74
que se pretendía dar a los usuarios pues en realidad el
precio pagado fue de $0,0931/kWh, es decir casi un
38% inferior a lo que se mencionaba en el texto de la
Regulación.
La aplicación de la Regulación CONELEC
006/09 abarcó el período comprendido entre el mes
de noviembre de 2009 y el mes de febrero de 2010,
durante los referidos meses la contribución de energía
alcanzó los 2.110,82MWh, valor que representó un
4,77% del total de energía demandada por los clientes
calificados.
Figura 10: Porcentajes promedio de clientes penalizados
por demanda
5.2. Esquemas de generación emergente para
eventos de déficit de abastecimiento nacional
Durante la crisis energética experimentada en el
año 2009, el CONELEC emitió la Regulación 006/09
sobre generación emergente de clientes calificados
para aliviar la demanda de los sistemas de distribución,
sin embargo este esquema solamente está previsto
en caso de déficit de abastecimiento energético del
sistema.
La condición técnica básica establecida por el
CONELEC para el ingreso dentro del esquema de
generación emergente es la de contar con un equipo
de generación de una potencia mínima de 100 kW,
así como también el poseer un sistema de medición
que permitiera registrar la producción de energía. La
calificación depende de un proceso de verificación
e inspección de las instalaciones del generador por
parte de la empresa de distribución. En el aspecto
operativo, el esquema establece que la coordinación
del funcionamiento de los generadores emergentes
debe efectuarse en conjunto con la empresa de
distribución, la cual, en este aspecto, queda libre de
solicitar cuando y durante que períodos de tiempo se
requiere de la generación de estos equipos, obligando
a reportar al CENACE los valores proyectados de
demanda autoabastecida.
Figura 11: Porcentaje de aporte mensual de la energía
autogenerada a la demanda total de los clientes calificados
5.2.1 Regulación CONELEC 006/09
Esta regulación fue emitida en noviembre del
año 2009 y fue aplicada hasta el mes de febrero de
2010, luego fue derogada en el año 2010 siendo
reemplazada por la CONELEC 003/10. En el ámbito
comercial, esta regulación fijó en $ 0,15/kWh la
remuneración que recibiría el cliente calificado por
la actividad de generación, los cuales se pagaban
en forma de descuento del valor total de la factura
por el servicio eléctrico del mes correspondiente, no
obstante, en el cálculo de la energía consumida por el
cliente se incluyó también la energía autoabastecida
con el generador de emergencia. Esta forma de
evaluar comercialmente la energía producida por los
clientes, distorsionó la señal de incentivo económico
Figura 12: Porcentajes de la composición del abastecimiento
energético de la CENTROSUR durante el periodo de
aplicación de la Regulación CONELEC 006/09
Con respecto a la composición de abastecimiento
de la demanda del sistema de distribución, la energía
producida por los generadores de emergencia
representó en promedio el 0,91% del total de energía
requerida por el sistema de distribución. La mayor parte
de las compensaciones pagadas por la distribuidora
correspondieron a generación de los horarios de 08:00
a 18:00 y 22:00 a 08:00, observándose porcentajes
superiores al 80% entre los dos períodos.
75
Tabla 13: Precios medios en centavos de dólar por kWh de la
generación térmica en el mercado eléctrico mayorista
Figura 13: Composición porcentual de los costos por
generación emergente pagada por la distribuidora a
los clientes calificados, en función del rango horario de
generación.
Como se puede apreciar en las tablas precedentes,
el precio unitario del kWh autogenerado fue en
promedio apenas superior al precio del kWh
generado por un productor térmico (1,06ctv./
kWh), si se considera que el enfoque comercial y
de negocio de un cliente industrial y/o comercial
no gira en torno a la producción eléctrica, es
posible deducir que el precio fue insuficiente para
compensar los costos de operación y mantenimiento
de unidades que no se encuentran diseñadas para
producción continua.
El hecho de que los costos disminuyeran para el
período pico (18:00 a 22:00) y consecuentemente
la generación, tiene relación con el hecho de que
la tarifa más alta se tenga para este horario, si bien
podría pensarse que el autoabastecerse durante el
período donde la energía es más cara sería la mejor
estrategia por parte de los clientes, debido al esquema
comercial de la Regulación, la energía generada en
hora pico también se incluiría como energía provista
por la distribuidora y por lo tanto sería tarifada en la
planilla eléctrica al más alto costo, por este motivo
es que la generación y los costos disminuyen en este
período.
5.2.2 Regulación CONELEC 003/10
La Regulación 003/10 “Operación Técnica –
Comercial de Grupos Electrógenos de Emergencia
en Períodos de Déficit y/o Racionamiento de
Energía Eléctrica” en lo referente a los objetivos,
requisitos técnicos, procedimientos de calificación
y operación, establece similares condiciones
y características que la 006/09, sin embargo
introduce cambios sustanciales en la liquidación
comercial de la energía generada con los grupos de
emergencia, entre los cuales se pueden mencionar:
El único mes en el cual se observar un cambio
en este comportamiento es en el mes de enero
situación que corresponde con el más alto aporte de la
generación de Continental Tire Andina al ser el único
con capacidad de generación sincronizada con el
sistema de distribución y de forma más continua que
el resto de clientes. Si bien el incentivo económico
para que los clientes se autoabastezcan, estableció un
precio de $0,15/kWh, debido al esquema comercial
de la Regulación, el precio real promedio reconocido
terminó siendo de $0,0931/kWh, si se compara este
valor con los precios promedio pagados a la generación
térmica durante el período de crisis, se observa que en
realidad este no fue un incentivo eficaz y en términos
generales pudo incluso generar pérdidas económicas
para los clientes.
• Establecimiento del concepto de Factor de
Operatividad.
• Establecimiento de dos precios para la
generación eléctrica de emergencia.
• Procedimiento para liquidación comercial
en períodos atípicos de facturación.
• Procedimiento para la liquidación comercial
de la generación de consumos. propios
de agentes autogeneradores y generación
emergente
de
agentes
generadores
calificados por el CONELEC.
Tabla 12: Precios medios reales pagados por la
autogeneración emergente
En contraparte, la similitud que comparten las
dos regulaciones en el tema comercial, radica en
la conservación de la característica de sumar la
energía generada a la energía suministrada por la
distribuidora para efectos de facturación.
76
El factor de operatividad establece una tasa
o porcentaje de funcionamiento del grupo
electrógeno comparado con un horizonte de tiempo
que se asume de un mes, se tienen dos tipos de
factores:
En donde:
L: Liquidación de la energía del período
correspondiente
M2: Energía producida por el grupo electrógeno
FOm=Hr/Ht
FO=Hop/Ht
(2)
En donde:
FOm: Factor de operatividad mínimo
FO: Factor de operatividad real
Hr: Cantidad de horas de racionamiento que afecten
al cliente calificado durante un mes o período de
facturación
Hop: Cantidad de horas reales de funcionamiento
del grupo electrógeno durante un mes o período de
facturación
Ht: Cantidad de horas totales del mes o período de
facturación
La nueva forma de liquidación comercial,
establece dos valoraciones económicas diferentes
para la energía producida en función de si la
producción del grupo electrógeno excedió o no
el factor de operatividad mínimo, los precios
establecidos se determinan como:
Escenario 2: Cliente genera durante más horas que
la duración de los períodos de racionamiento, es decir
FO es mayor que FOm.
Lreal=(M2*PEGEE1)-(M2*Th)
(5)
En donde Lreal es la valoración económica real
del kWh generado considerando el hecho de que esta
energía tiene que sumarse al consumo energético
suministrado por la distribuidora y por lo tanto se
valora a la tarifa regulada vigente (Th).
En donde:
PEGEE: Precio de energía generada por grupos
electrógenos de emergencia.
CO&M: Costo de operación y mantenimiento,
excepto combustible, en (cUSD/kWh), se considera
el precio promedio que facturan por el servicio
empresas especializadas en el mercado local para
el generador tipo.
Cc: Costo de combustible a precio de mercado
local incluido el transporte (cUSD/kWh)
M: Margen adicional determinado por el
CONELEC, de acuerdo al costo de oportunidad
del mercado eléctrico, revisado por el regulador
anualmente. (Adimensional < 1).
Mientras que para el escenario 2:
FOm<1
FO<1
Lreal=(M2*FOm*PEGEE1)
+[M2*(FO-FOm)*PEGEE2]
-(M2*Th)
(6)
Expresión en la cual se observa que la valoración
de la energía al precio PEGEE1 se ve penalizada al
multiplicarse por FOm, este factor de operatividad,
de acuerdo a su expresión de cálculo siempre será
un valor decimal inferior a la unidad. En el caso de
la energía valorada a PEGEE2 la penalización es
aún mayor al multiplicarse por la diferencia de FO y
FOm siendo ambos factores de operatividad número
decimales inferiores a la unidad.
Con base en el factor de operatividad la
liquidación comercial de la energía generada por
el grupo electrógeno es de dos tipos:
si FO≤FOm
L=(M2*FOm*PEGEE1)
+[M2*(FO-FOm)
*PEGEE2] si FO>FOm
Escenario 1: Cliente genera solamente durante las
horas de racionamiento, es decir el FO es menor o
igual a FOm.
Para el escenario 1 se tendría:
PEGEE1=CO&M+Cc
FO≤FOm
PEGEE2=PEGEE1*(1+M)
FO>FOm (3)
L=M2*PEGEE1
Como se puede observar, el esquema comercial
establecido hace que la valoración económica de
la energía producida por el grupo electrógeno de
emergencia del cliente calificado dependa en gran
medida del factor de operatividad (FO), sin embargo
analizando los posibles escenarios de producción para
un cliente se tiene:
En razón de lo analizado se observa que la
regulación penaliza la valoración de la energía
generada por el cliente si éste produce más allá de las
horas de racionamiento, en otras palabras no incentiva
(4)
77
la participación de los clientes para autoabastecerse
en condiciones de déficit de energía del sistema, sino
que hace exactamente lo opuesto.
de energía y así aprovechar un potencial recurso que
hasta ahora no ha sido considerado en la operación de
los sistemas de distribución. No obstante lo anterior, se
cree que el instrumento regulatorio sobre GD debería
considerar como aspectos básicos los siguientes:
Hasta la fecha las condiciones operativas del
sistema nacional no han requerido la activación del
esquema propuesto por la regulación 003/10, sin
embargo por la forma de valoración económica, el
incentivo para el cliente depende del precio PEGEE1
fijado por el CONELEC, el cual para el año 2010 fue
establecido en 15ctv.USD/kWh.
6.1.1 Condiciones y características de la demanda
No en todos los casos, la aplicación de la GD
será conveniente desde las perspectivas técnicas
y comerciales de la distribuidora y del cliente, esto
en primera instancia orienta el trabajo regulatorio
hacia las características que debe cumplir un cliente
industrial para ser incluido en esquemas de GD, las
cuales deberían como mínimo considerar:
Si actualmente el sistema requiriese la activación
de la regulación 003/10, se estima que el precio
PEGEE1 no superaría los 10ctv.USD/kWh ya que los
costos variables de producción de las unidades tipo
motor de combustión interna con diesel actualmente
disponibles en el mercado eléctrico mayorista del
Ecuador, muestran un valor promedio de 8,026ctv.
USD por kWh, valor que, de acuerdo a la regulación
CONELEC 003/03 incluye los costos de adquisición
y transporte de combustible.
• La demanda media mensual o anual de
potencia y energía.
• La forma y variación de la curva promedio de
demanda diaria.
• Para esto es indispensable contar con un
sistema de medición que posibilite obtener los
datos de consumo de energía totales del cliente
industrial con suficiente grado de resolución y
precisión. La experiencia del presente estudio
indica que es adecuado tener registros cuartohorarios de consumos de energía activa y
reactiva de los últimos tres años para con estos
datos obtener las curvas promedio de demanda
diaria así como la duración anual de carga,
esto permite visualizar el patrón típico de
consumo, el rango de variación de demanda y
las posibilidades de gestionar carga.
6. PROPUESTAS Y RECOMENDACIONES
DESDE LA PERSPECTIVA REGULATORIA
Los resultados obtenidos del análisis de la demanda
de CARTOPEL, la gestión de demanda propuesta
en el presente trabajo y el análisis realizado de las
regulaciones vigentes en el Ecuador relacionadas
con la temática expuesta; permiten deducir dos
condiciones fundamentales que posibilitarían una
correcta implementación de la gestión de la demanda
en el país:
6.1.2 Aspectos técnicos de aplicación
a) Contar con un instrumento regulatorio que
permita explotar la capacidad gestionable de
la demanda de energía eléctrica del sector
industrial, el cual establezca las condiciones
técnicas y comerciales de aplicación.
b) Reestructurar los incentivos tarifarios vigentes
para el sector industrial, así como también la
actual Regulación sobre generación emergente
para períodos de déficit y/o racionamiento
eléctrico.
La aplicación de la gestión de la demanda industrial
debería abordar:
• La definición de una metodología para la
ejecución de auditorías eléctricas.
• La tecnología de medición, supervisión y
monitoreo.
• El diseño de la metodología permitirá
sistematizar el levantamiento, consolidación
y análisis de la información de las cargas
y del proceso productivo, con el objetivo
de determinar, con suficiente grado de
aproximación, el balance energético de la
planta y con ello establecer los procesos de
producción y las cargas que forman parte
del porcentaje gestionable de demanda
que no incide, o que afecta mínimamente,
la producción de la industria. Del estudio
aplicado a CARTOPEL se puede extraer que un
aspecto clave que aporta exactitud y eficacia a
la elaboración del balance energético es contar
6.1. Consideraciones para una Regulación sobre
Gestión de Demanda y Generación Emergente
para períodos de déficit de abastecimiento
La elaboración de una Regulación sobre GD
debe partir de un profundo y consciente análisis del
consumo de energía que hacen las grandes industrias
en el país, el cual permita plasmar en el documento
final herramientas técnicas y comerciales efectivas
que incentiven un mejor y más inteligente consumo
78
•
•
•
•
•
con los registros de las mediciones de voltaje,
corriente y potencia en los principales cuadros
eléctricos y/o en las diferentes cargas y etapas
del proceso productivo; mientras mayor sea
la base de datos de mediciones mayor será el
grado de exactitud y más eficaces las decisiones
y acciones de gestión a implementarse.
Dentro del contexto de aplicación efectiva de
la GD, el aspecto de tecnología de medición,
supervisión y monitoreo se vuelve esencial
en razón de que su efectividad como recurso
en la operación del sistema de distribución
radicará en la capacidad de medir y cuantificar
exactamente las reducciones de demanda
solicitadas por la distribuidora al cliente, este
aspecto en la actualidad puede ser solventado
con la definición de los requerimientos de:
cantidad de canales de medición, precisión,
medios de comunicación, tipos de reportes y
medios de almacenamiento de la información.
Estos temas pueden ser cubiertos a través de
la implementación de sistemas AMR o AMI
y la visualización de la información de los
medidores en el SCADA del centro de control
de la distribuidora.
Aspectos comerciales y remunerativos
El análisis de la aplicación del esquema
de generación emergente durante la crisis
energética del año 2009 determinó que la
remuneración económica recibida por los
clientes calificados llegó a ser insuficiente
para compensar los costos incurridos por la
actividad de autogeneración. La aplicación de
la GD como recurso en casos de restricción
de abastecimiento energético, puede ser más
efectiva para la distribuidora y más rentable
para el cliente, esto en base a los resultados
obtenidos de la evaluación realizada a la
gestión con CARTOPEL en los cuales se
determinó que la energía reducida con GD
es comparable a la energía autogenerada por
varios clientes calificados durante el período
de crisis energética, con esto es plenamente
viable que el regulador remunere este servicio
al cliente.
Con base en lo anterior es posible definir
que la Regulación de GD deberá establecer
parámetros para:
Tratamiento de los costos de implementación
de la GD, los cuales podrían ser cubiertos
tanto por el cliente como por la distribuidora,
tentativamente podría definirse que la
auditoría tenga que ser pagada por el cliente,
mientras que la implementación del sistema de
control, supervisión y monitoreo por parte de
la distribuidora.
• Reducción tarifaria durante un período de
tiempo fijo, con el objeto de incentivar al
cliente industrial a ser considerado dentro del
esquema de GD.
• Remuneración de la actividad de GD para el
cliente en la fase de activación, podrían ser
analizados los esquemas de remuneración a
precio fijo por kWh interrumpido, de forma
similar a la establecida en la Regulación
CONELEC 003/10, o también a precio
marginal horario del mercado mayorista.
• Posibilitar la recuperación por parte de la
distribuidora, de los costos de implementación
de la GD como por ejemplo el sistema de
medición, supervisión y monitoreo, así como
también el incentivo tarifario, dentro de las
cuentas de reposición e instalación de nuevos
medidores y déficit tarifario respectivamente.
6.2. Reformulación del factor de corrección por
demanda
La metodología actualmente aplicada para la
determinación del factor de corrección por demanda
para los clientes industriales con demanda horaria
en media tensión, penaliza con un 20% de recargo
económico si la relación entre demanda pico y
máxima tiene un valor superior a 0,9, esta forma de
cálculo incentiva el desplazamiento de la demanda
hacia períodos horarios fuera de las horas pico del
sistema (18:00 a 22:00), sin embargo esta metodología
no puede ser aplicada a todos los clientes en razón
de que su efectividad depende en gran medida de la
forma que tenga la curva de carga típica del proceso
productivo de la industria.
La forma de cálculo del factor de corrección por
demanda ha dado como resultado, para el caso de
CENTROSUR, que casi un tercio del total de clientes
industriales con demanda horaria en media tensión no
sean capaces de modificar su curva de demanda, esta
cantidad casi no ha variado a lo largo de los últimos
tres años lo que demuestra que para ellos no es posible
por condiciones técnicas y/o económicas modificar
su patrón de consumo eléctrico. Es por lo tanto
indispensable que el organismo regulador rediseñe
esta metodología de forma que incluya parámetros
técnicos sobre el tipo de industria y consumo de
energía que requiere para ejecutar sus procesos de
producción.
79
• Las estadísticas de la demanda y de los clientes
atendidos por la distribuidora muestran que
aproximadamente un tercio de la demanda de
energía es de responsabilidad del segmento
industrial, este tipo de clientes representa apenas
el 2% del total de clientes de la distribuidora,
el 90% de la energía del segmento industrial se
concentra en 590 clientes, estos datos justifican
la consideración y análisis de la GD como un
recurso energético con el potencial de constituirse
en apoyo eficaz al sistema de distribución para
solventar problemas de abastecimiento ya que un
efecto apreciable podría ser alcanzado trabajando
con un número muy reducido de clientes.
• La regulación vigente sobre la Operación
de Grupos Electrógenos de Emergencia
(CONELEC 003/10) es la única que incentiva la
modificación del patrón de consumo de energía
de los clientes industriales durante períodos de
déficit y/o racionamiento energético, sin embargo
el mecanismo de cálculo de la compensación
económica para el cliente en lugar de incentivar
esta actividad termina por penalizarla. Para que
su aplicación sea efectiva en su propósito de
convertir a la demanda industrial en un efectivo
recurso en situaciones de contingencia del
sistema eléctrico, es indispensable que su forma
de cálculo sea revisada en su totalidad.
• Para que la aplicación de la GD sea efectiva es
necesario que se flexibilice el cálculo del factor
de corrección por demanda para los clientes
industriales y que se incluya la variable del
tipo de demanda o patrón de consumo en su
determinación.
• La principal barrera que dificulta la aplicación
de la gestión de la demanda es la ausencia de
un marco regulatorio que la conciba como un
efectivo recurso energético del sistema eléctrico,
• La evaluación de la GD para el caso del cliente
CARTOPEL muestran que ésta puede ser tan o
más eficiente que la generación de emergencia
para escenarios de contingencia, por ello
se recomienda que la operación de grupos
electrógenos de emergencia sea incluida como
una forma de alcanzar los porcentaje de GD
solicitados en un determinado momento por la
distribuidora o por el operador del sistema, es decir
que sea el cliente quien determine si mediante la
autogeneración puede reducir aún más su curva
de demanda en función de lo requerido por el
sistema y así alcanzar mayores proporciones de
compensación por gestión de demanda.
• Es recomendable que la introducción de la
gestión de la demanda en el país, comience con
un proceso de concientización y socialización
7. CONCLUSIONES Y RECOMENDACIONES
• La gestión de demanda sobre la carga de
CARTOPEL es posible, sin embargo se ve
fuertemente afectada por la forma del patrón de
consumo que tiene el proceso productivo, los
resultados del presente estudio muestran que
las cargas con posibilidades de gestión suman
alrededor de 982kW, valor que en comparación
con la demanda máxima del sistema de
distribución puede ser insignificante. Resultados
más significativos podrían ser alcanzados si
el esquema de gestión es aplicado en mayor
cantidad de usuarios industriales que presenten
un mayor potencial de carga gestionable.
• La aplicación de la gestión de demanda en el sector
industrial requiere de un esquema regulatorio
claro y específico que establezca las condiciones
técnicas y comerciales de implementación. La
normativa nacional sobre implementación de
planes de GD debería estar orientada hacia el
uso eficiente de la energía por parte del cliente,
y a su ejecución como recurso energético en
condiciones de crisis de abastecimiento por parte
de la distribuidora.
• La evaluación de la potencial reducción de carga
y su impacto económico tomó como base los
históricos de demanda de la industria y de la
distribuidora para caracterizar el patrón diario
de consumo, sin embargo la evaluación de la
aplicación real de un esquema de GD debe
contemplar la instalación de sistemas de medición
inteligente con capacidad de adquisición remota
de los datos de consumo de energía del cliente,
esto es indispensable con el objeto de monitorear
y realizar una evaluación técnica y económica
exacta.
• La GD y sus potenciales resultados de aplicación
muestran que puede ser mucho más efectiva
que los esquemas de generación emergente para
satisfacer condiciones de déficit y/o racionamiento
de energía, el presente estudio muestra que la
potencia con capacidad de interrupción, para
el caso de CARTOPEL, “produce” una energía
de 449.922kWh mensuales calculados para
un tiempo de desconexión medio diario de 10
horas; esta reducción de energía comparada con
la energía generada por todos los clientes durante
el mes de mayor contribución de los generadores
emergentes representa el 58,88%, este resultado
indica que un solo cliente con un adecuado plan
de GD tiene el potencial de generar ahorros
comparables que los obtenidos al aplicar la
generación de emergencia.
80
con los clientes industriales, este proceso debe ser
liderado por el organismo regulador así como por
las distribuidoras dentro de su zona de concesión.
• Se recomienda la implementación de proyectos
piloto como una forma de incentivar la
participación del segmento industrial, estos
proyectos permitirán tanto al regulador como a
la distribuidora hacer evaluaciones preliminares
y comparar los resultados con las expectativas
iniciales del proyecto, estos pilotos deberán
incluir clientes de gran demanda de energía.
• Para que la implementación de la GD sea
efectiva, un aspecto de suma importancia lo
constituyen la medición, resolución, adquisición
y análisis de los datos de demanda eléctrica del
“cliente gestionable”, por esto se recomienda que
la información se encuentre disponible en tiempo
real tanto para la distribuidora como para el
usuario, esta característica del sistema permitirá
evaluar técnica y económicamente el impacto de
la GD solicitada a los clientes además de brindar al
usuario la posibilidad de controlar sus consumos
de energía así como el costo económico de su
abastecimiento energético.
• El requerimiento de contar con equipos de
medición de una precisión y resolución elevadas
para la aplicación de la GD, hace recomendable
que se vaya considerando la opción de migrar
desde la tarifa fija por período horario hacia
tarifas horarias que reflejen efectivamente el
costo de la energía, con esto se lograría que la
demanda eléctrica al fin sea flexible ante los
precios de la oferta, con lo cual se podría alcanzar
un uso más eficiente de energía por parte de los
consumidores.
[4] MAURER L., “Tariff Schemes to Foster Demand
Response (DR)=Energy Efficiency (EE) and
Demand Side Management (DSM)”, Presentation
for “International Seminar on Electricity Tariff
Structure”, Brazilian Electricity Regulatory Agency,
Brasilia, june 2009.
[5] KÄRKKÄINEN S., “DSM Experiences in Nordic
Countries”, Presentation for “TAIEX Workshop on
Demand Side Management in Energy Efficiency”,
Technical Assistance Information Exchange
Instrument (TAIEX), European Commission,
Ankara, november 2007.
[6] LEE S. / LEE HC. / YOO TH. / NOH JW. / NA YJ.
/ PARK JK. / MOON SI. / YOON YT., “Demand
Response Prospect in the South Korean Power
System”, Korea Electr. Eng. & Sci. Res. Inst.
(KESRI), IEEE -Power and Energy Society General
Meeting, Minneapolis, MN, 2010.
[7] VINTIMILLA, PALADINES, “Auditoria Eléctrica
a la Fábrica de Cartones Nacionales CARTOPEL
S.A.I.”, Tesis de grado Ingeniería Eléctrica,
Universidad Politécnica Salesiana, Cuenca, 2012.
[8] CONSEJO NACIONAL DE ELECTRICIDAD –
CONELEC, “Plan Maestro de Electrificación 20092020”, Dirección Ejecutiva CONELEC, Quito –
Ecuador, 2009.
[9] CONSEJO NACIONAL DE ELECTRICIDAD –
CONELEC, “Análisis de Costos para las Empresas
Eléctricas Sujetas a Regulación de Precios”,
Dirección de Tarifas CONELEC, Quito – Ecuador,
marzo 2011.
REFERENCIAS BIBLIOGRÁFICAS
[1] TASK VIII: DEMAND-SIDE BIDDING IN A
COMPETITIVE ELECTRICITY MARKET,
“A Practical Guide to Demand-Side Bidding”,
International Energy Agency Demand-Side
Management Programme, United Kingdom. 2003,
www.ieadsm.org
[2] DG DE INDUSTRIA, ENERGÍA Y MINAS, “Guía
Básica de la Gestión de la Demanda Eléctrica”,
Comunidad de Madrid, 2007, www.madrid.org
[10] CONSEJO NACIONAL DE ELECTRICIDAD
–CONELEC, “Estadística del Sector Eléctrico
Ecuatoriano Año 2008”, Dirección Ejecutiva Interina
CONELEC, Quito – Ecuador, abril 2009.
[11] CONSEJO NACIONAL DE ELECTRICIDAD
–CONELEC, “Regulación CONELEC 006/09
-Generación de Emergencia”, Dirección Ejecutiva
CONELEC, Quito – Ecuador, 2009.
[12] CONSEJO NACIONAL DE ELECTRICIDAD
–CONELEC, “Regulación CONELEC 003/10
-Operación Técnica-Comercial de Grupos
Electrógenos de Emergencia en Períodos de
Déficit y/o Racionamiento”, Dirección Ejecutiva
CONELEC, Quito – Ecuador, 2010.
[3] FARUQUI A. / HLEDIK R. / WIKLER G. / GHOSH
D. / PRIJYANONDA J. / DAYAL N., “Bringing
Demand-Side Management to the Kingdom of
Saudi Arabia –Final Report”, The Brattle Group Inc.,
2011.
81
[13] CONSEJO NACIONAL DE ELECTRICIDAD
–CONELEC, “Pliego Tarifario para Empresas
Eléctricas, Año 2012”, Dirección de Tarifas
CONELEC, Quito – Ecuador, 2011.
Pablo Méndez Santos.- Nació en
Cuenca en 1979. Recibió el título de
Ingeniero Eléctrico en la Universidad
Politécnica Salesiana en 2004 y el
título de Magister en Sistemas
Eléctricos de Potencia por la
Universidad de Cuenca en 2013.
Actualmente se encuentra laborando
en la Dirección de Comercialización
de la Empresa Eléctrica Regional Centro Sur en el área de
Mercado Eléctrico y Grandes Clientes y es docente de la
carrera de Ingeniería Eléctrica en la Universidad Politécnica
Salesiana de Cuenca.
82
Análisis de parámetros técnicos en eficiencia de iluminación para el
edificio matriz de la Empresa Eléctrica Regional Centro Sur.
M. A. Dávila
E. F. Durán
Universidad Politécnica Salesiana
Resumen— Análisis energético realizado en las
instalaciones de la Empresa Eléctrica Regional
Centro Sur C.A. de la ciudad de Cuenca.
Alternativas de ahorro para disminuir el consumo
energético en iluminación.
Incidencia del
reemplazo de lámparas T8 por T5 sobre el índice
de eficiencia energética de la instalación.
para aplicar los criterios de ahorro. En el capítulo
III se aplican los criterios de ahorro en iluminación,
en cargas puntuales y la utilización de sensores de
movimiento. Se aplican los diferentes criterios de
eficiencia y se obtiene el ahorro económico generado
En el capítulo IV se resume los resultados obtenidos
al aplicar los sistemas y criterios de ahorro y se realiza
un análisis económico de la alternativa de cambiar las
lámparas T8 por T5 y su incidencia en el índice de
eficiencia energética de la instalación de iluminación.
Palabras clave— Eficiencia Energética, Eficiencia
en Iluminación, Lámparas fluorescentes, Índice
de eficiencia energética.
2. INSTALACIONES
DE
ILUMINACIÓN
PRESENTES EN EL EDIFICIO
Abstract— An energy analysis was performed on
the facilities of the Empresa Eléctrica Regional
Centro Sur. S.A. (Central South Regional
Electrical Company) in Cuenca city. Savings
alternatives to reduce energy consumption from
lighting. The incidence of replacing T8 lamps with
T5 lamps on the location’s energy efficiency index.
Index Terms— Energy
Efficiency,
Fluorescent
Efficiency Index.
Las instalaciones de iluminación del edificio de
la CENTROSUR, está predominado por luminarias
fluorescentes con boquilla tipo T8. Para obtener
un ahorro energético considerable, se analizará la
opción de sustituir las lámparas fluorescentes T8 por
lámparas fluorescentes T5 (fig.1).
Efficiency, Lighting
Lighting,
Energy
1. INTRODUCCIÓN
La Empresa Eléctrica Regional Centro Sur, como
ejemplo para sus clientes y para la sociedad, siempre
se ha preocupado de disminuir el consumo energético
durante sus actividades, y así evitar la mala utilización
de recursos. Para esto, se han realizado varios análisis
dentro del edificio matriz, con el objeto de determinar
los puntos de consumo energético ineficientes o
sobreutilizados.
Figura 1: Diferencia entre lámparas T12, T8 y T5 [8]
Como un complemento a estos de estudios, en el
presente documento, se presenta un análisis enfocado
en el sistema de iluminación, y la utilización de
equipos de oficina como computadores e impresoras.
El análisis presentado, pretende encaminar un
procedimiento de auditoría energética dentro de la
empresa, para lograr los menores índices de consumo.
Para dicho análisis, se seleccionó la planta baja
del edificio matriz para el cálculo referencial. Esta
selección se realizó por las siguientes características:
• La planta baja es dedicada a la atención al
cliente
• En esta planta se ubica el cuarto de
telecomunicaciones.
• En este piso se encuentran departamentos
de vital importancia, tal es el caso del
En el capítulo II se indica la situación actual del
sistema de iluminación de la empresa y se realiza una
simulación para obtener los parámetros requeridos
83
Departamento de Supervisión y Operación,
el Centro de Operación de la Distribución,
oficinas de alumbrado público, puntos de
pago, etc.
que debemos analizar es la eficacia de iluminación en
cuanto se refiere a la iluminación directa o indirecta.
2.1. Situación actual en iluminación
En el análisis lumínico, se utilizó el software
DIALUX con el modelo en tres dimensiones de la
instalación (fig.2). Utilizando los datos presentes
en el levantamiento previamente realizado por la
empresa HRG, Ingeniería y servicios; y, mediante una
inspección en sitio, se identificaron cuatro tipos de
luminarias existentes en la instalación (tabla 1).
Figura 3: Distribución isolumínica actual
Tabla 3: Resultados de la simulación: Iluminancias medias
Para esto se debe tener en cuenta que en una
instalación eficaz y eficiente, siempre se preferirá la
iluminación directa al puesto de trabajo, o al área en
la que se requiera dicha iluminación. La iluminación
indirecta constituye pérdidas, pues no influye
directamente en la comodidad visual del usuario.
En la tabla 4 se muestra la eficacia de iluminación
de la instalación, junto con las pérdidas lumínicas
establecidas.
Figura 2: Modelo tridimensional
Tabla 1: Luminarias existentes en la planta baja
Tabla 4: . Eficacia de iluminación existente
Con estos valores, se realizó la simulación del
sistema de iluminación actual en la CENTROSUR.
Esto se realizó con luminarias virtuales de gran
similitud a las utilizadas en la instalación real (tabla 2)
Con estos valores, podemos proceder al cálculo
de las potencias consumidas en la instalación, y la
energía consumida que tendrá su repercusión directa
en la planilla de pago. En la tabla 5 observamos las
potencias consumidas por cada tipo de luminaria
existente en la instalación.
Tabla 2: . Lista de luminarias simuladas
Tabla 5: . Potencia total consumida existente
Una vez ubicadas todas las luminarias, se realizó la
simulación con lo cual se pudo obtener la distribución
lumínica en la edificación (fig. 3). Como podemos
observar en la tabla 3, la luminancia media está dentro
de los límites establecidos . Otro factor importante
84
Costo mensual=$450.68/mes
Costo anual=$5408.13
Otro factor importante es el cumplimiento del UGR
(Índice de deslumbramiento unificado), el cual debe
cumplir con la norma UNE 12464-1, cuyos límites
máximos en oficinas se muestran en la tabla 6
3. ANÁLISIS DE CONSUMO DE ENERGÍA EN
OFICINAS Y SOLUCIONES ENERGÉTICAS
Tabla 6: . Límite de iluminancias y UGR en oficinas [2]
Los sistemas principales de consumo energético en
las instalaciones en edificios de oficinas son:
• Iluminación
• Equipamiento
específico:
Ordenadores,
Impresora, etc.
• Equipamiento general: neveras, cafeteras, etc.
• Se empezó por el inventario de los equipos
existentes, la potencia nominal de cada uno de
ellos y su utilización. Este último parámetro
permite determinar el factor de simultaneidad
en cada una de las etapas de la jornada
laboral. El propósito es conocer la potencia
máxima que realmente se utiliza, y establecer
si modificando el régimen de funcionamiento
de determinados equipos, puede disminuirse el
consumo energético (tabla 8).
Con la simulación en Dialux se observa que se
cumplen los requerimientos de la norma. (UGR=17
y Em=505). Es decir, la instalación existente cumple
con el diseño lumínico requerido para actividades de
escritura y tratamiento de datos.
2.2. Consumo energético de luminarias
La CENTROSUR, al ser una empresa privada al
servicio de la ciudadanía, labora normalmente desde
las 8h00 hasta las 16h30, pero además el personal
encargado de atención de reclamos, y el personal de
mantenimiento del edificio laboran fuera de horarios
normales de oficina, siendo esto un porcentaje
considerable (tabla 7).
Tabla 8: Principales consumidores energéticos dentro del
edificio
Tabla 7: . Datos de utilización de las instalaciones de
iluminación del edificio matriz de la CENTROSUR
Por lo tanto, se utilizarán aproximadamente 4 horas
más de iluminación además de las presentes en el
horario de atención normal, es decir:
Horas de uso por día=13 horas
Días de uso al mes=24 días
En general, las instalaciones de la CENTROSUR son
eficientes energéticamente, pero este panorama puede
mejorar tomando en cuenta ciertas modificaciones
como el uso de luminarias fluorescentes tipo T5.
Otro análisis que se debe realizar es la utilización
de sensores de movimiento o presencia en pasillos
y gradas, pues en horarios fuera de oficina, las
luminarias en estos sectores permanecen encendidas
innecesariamente.
Con estos valores calculamos el consumo mensual
de la instalación con la ecuación 1.
Consumo mensual
(1)
Consumo mensual=5633.47Kwh/mes
3.1. Control de equipos ofimáticos
Teniendo en cuenta un costo de $0.08 por kwh, se
tiene:
Siempre que sea posible, se deben adquirir equipos
con sistemas de ahorro de energía (por ejemplo
“Energy Star”) que incorporan un modo de “stand
by” o espera, que se activa cuando el equipo lleva un
tiempo programable sin ser utilizado. En este modo,
Costo mensual=consumo mensual*costo por Kwh (2)
85
el consumo de energía es hasta un 17% inferior al que
se produce en modo normal [9].
tipo de luminaria u otra, debemos analizar los factores
que diferencian a ambos tipos de luminarias (tabla
10).
En la CENTROSUR recientemente se adquirieron
equipos LEXMARK, los cuales cuentan con la opción
del ECO-MODE, es decir, que pueden entrar en modo
de bajo consumo luego de un tiempo de inactividad.
Además, se pueden tomar medidas de corrección en
otros equipos para disminuir el consumo de energía:
Tabla 10: Comparación de lámparas fluorescentes T8 y T5
[3,4,6]
• Apagado
de
computadores
mediante
direccionamiento IP.
• Activación del modo ecológico en todos los
equipos que permitan esta configuración
• Utilizar un salvapantallas de color negro en
todos los monitores.
Debido a que las lámparas T5 tienen un mejor
rendimiento lumínico superior a las lámparas T8, las
potencias utilizadas pueden ser menores y alcanzar
una iluminancia media igual. En este caso se hicieron
las siguientes modificaciones:
3.2. Aplicación de soluciones de eficiencia en
iluminación
Algunas medidas que se pueden tomar para la
disminución del consumo energético en iluminación
[3] son:
• Lámpara de 32W T8 sustituida por lámpara de
28W T5
• Lámpara de 18W T8 sustituida por lámpara de
14W T5
• Colocar detectores de presencia en pasillos o
garajes.
• Iluminar directamente los puestos de trabajo
(iluminación localizada).
• Aprovechar al máximo la luz natural,
empleando sensores de luz ubicados cerca de
las ventanas.
Con estos cambios se realizó la simulación
respectiva, con lo que se obtuvo el plano isolumínico
(fig.4).
Los resultados de estas soluciones de ahorro
energético se pueden observar en la tabla 9.
Tabla 9: Opciones de mejoras en iluminación [4]
En el presente análisis, no se considera el cambio
de lámparas incandescentes por lámparas compactas
fluorescentes pues después de un recorrido por
el edificio, se observó que actualmente todas
las instalaciones que requieren de una bombilla
incandescente ya han sido reemplazadas por una
lámpara compacta.
Figura 4: Distribución isolumínica con lámparas t5
Las luminarias utilizadas en la simulación tienen
las características mostradas en la tabla 11 y los
resultados de la simulación se muestran en la tabla 12.
Tabla 11: Características de las luminarias T5
Las luminarias tipo T5 son una alternativa para la
eficiencia energética de edificios, pero su costo aún
es muy elevado en comparación con las luminarias
tipo T8. Normalmente se cree que el cambio de T5 a
T8 beneficiará inmediatamente al rendimiento de la
instalación, pero no siempre es así. Para optar por un
86
Tabla 12: Iluminancias medias con lámparas T5
Tabla 15: Cotización de los materiales involucrados para el
cambio de luminarias en la planta baja
En la tabla 13 se muestra la eficacia de iluminación
de la instalación proyectada, junto con las pérdidas
lumínicas establecidas.
Tabla 13: . Eficacia de iluminación proyectada
Como podemos observar, la solución es cinco
veces más costosa que el pago total de iluminación de
la zona de análisis durante un año.
Como podemos observar, no existe mayor
diferencia entre las luminancias obtenidas con
luminarias T8 y con las obtenidas con luminarias
T5 de menor potencia. En la tabla 14 observamos
las potencias consumidas por cada tipo de luminaria
proyectada en la instalación.
Es una norma europea que establece las exigencias
básicas de calidad, seguridad y habitabilidad de los
edificios y sus instalaciones, emitida mediante el Real
Decreto 314/2006. Para un proyecto de mejoras, se
deben verificar los siguientes parámetros:
• Cálculo del valor de eficiencia energética de la
instalación VEEI
• Comprobación de la existencia del sistema
de control y regulación que optimice el
aprovechamiento de luz natural
• Verificación de la existencia de un plan de
mantenimiento
• Para cada zona debe figurar, junto con
los cálculos justificativos, la siguiente
información: Índice del local (K) utilizado en
el cálculo, número de puntos considerados,
factor de mantenimiento previsto (Fm),
Iluminancia media mantenida (Em), índice
de deslumbramiento unificado (UGR), índice
de rendimiento del color (Ra), el valor de
eficiencia energética de la instalación y las
potencias de los conjuntos formados por
lámpara más equipo auxiliar.
Tabla 14: Eficacia de iluminación proyectada
Utilizando los mismos parámetros calculados
anteriormente, el consumo energético se calcula
mediante las ecuaciones 1 y 2.
Consumo mensual = 4893.41Kwh/mes
Costo mensual = $391.47/mes
Costo anual = $4697.67
Por lo tanto, las luminarias T5 son $710.46 más
económicas en un año que las luminarias T8, es
decir, un 13% de ahorro.
El VEEI es el valor definido como la potencia de
iluminación que se induce en una superficie específica
[10] (Ecuación 3).
El cambio de lámparas T8 por T5, como se ha
mencionado anteriormente tiene un valor elevado.
Para tener una referencia del costo por cambio
del conjunto lámpara-soportes-balasto, los costos
unitarios y totales (tomando en cuenta el cambio total
de las lámparas de la planta baja) por concepto de
materiales son los mostrados en la tabla 15.
(3)
Para el caso actual, es decir, con lámparas tipo T8,
se tiene:
87
:
(4)
recalcar que todas las soluciones son aproximaciones
de ahorro, pues los análisis están basados en potencias
promedio de consumo en cuanto a equipos de oficina,
y a iluminancias promedio dadas por las lámparas T5.
En caso de sustituir todas las lámparas T8 por tipo
T5, sería:
4.1. Ahorro en iluminación con sustitución de
lámparas fluorescentes T8 por T5
El análisis realizado por la sustitución de lámparas
fluorescentes tipo T8 por lámparas T5, constituye
un ahorro sustancial, debido a las características
mejoradas de las lámparas T5 (Tabla 17).
(5)
Para este valor se establecen unos valores mínimos,
diferenciándose en los edificios dos tipos de zona.
Las de representación y las de no representación
[10]. “Se entienden por zonas de representación
aquellas donde el criterio de diseño, imagen o
estado anímico que se quiere transmitir al usuario
con la iluminación, son preponderantes frente a los
criterios de eficiencia energética. Por el contrario,
zonas de no representación son aquellas donde los
criterios como el nivel de iluminación, confort visual,
seguridad y eficiencia energética son más importantes
que cualquier otro criterio” [10]. En el caso de la
CENTROSUR, se requiere cumplir con los criterios
de las zonas de no representación, para las cuales el
VEEI límite está dado por los valores presentes en la
tabla 16.
Tabla 17: Ahorro energético mediante sustitución de lámparas
T8 por T5
4.2. Ahorro en iluminación con sustitución de
balastos magnéticos por balastos electrónicos.
Como se mencionó en puntos anteriores, el uso de
balastos electrónicos en cada luminaria, constituye un
ahorro sustancial de aproximadamente el 20% [3,4]
del consumo de potencia de las lámparas, y además
disminuye el “parpadeo” de los tubos fluorescentes, lo
que mejora la comodidad visual de los usuarios (tabla
18).
Tabla 16: Valores límites de eficiencia energética de la
instalación [10]
Tabla 18: Ahorro energético considerando las posibilidades
lámpara-balasto
4.3. Ahorro en consumo de energía en equipos de
oficina
Por lo tanto, el valor de VEEI alcanzado con las
luminarias T5 se aproxima de mejor manera a los
valores límites establecidos.
En los equipos de oficina, la opción más
recomendable para lograr un ahorro energético, es
actuar sobre el equipamiento específico, obteniendo
un control sobre la hora de apagado de los mismos, así
también como la activación de los modos de ahorro
energético disponibles.
Considerando un ahorro
del 17% [3,4] del consumo, se obtuvieron los datos
mostrados en la tabla 19.
4. RESUMEN DE ACTIVIDADES A REALIZAR
PARA
DISMINUIR
EL
CONSUMO
ENERGÉTICO
Una vez realizado el análisis de propuestas de ahorro
energético, a continuación se resumirán cada solución
con su respectivo aporte (ahorro en planilla). Cabe
88
Utilizando las opciones energéticas adicionales que
se plantearon en el documento se obtienen los datos
mostrados en la tabla 22:
Tabla 19: Ahorro energético considerando un control de
apagado, y modos económicos para los equipos de oficina
Tabla 22: Amortización con lámparas T5, balasto electrónico y
control de equipos de oficina
5. RESULTADOS PROYECTADOS
En la tabla 20, se muestran las opciones de ahorro
energético descritas en el presente documento. Se
puede observar el consumo anual y mensual que se
tendría con cada una de las opciones, y al final se
observa el ahorro final con la solución más eficiente
estudiada, es decir, sustituyendo las lámparas T8
por T5, utilizando balastros electrónicos en cada
luminaria, y realizando un control en el horario de
encendido y apagado en los equipos de oficina.
6. CONCLUSIONES Y RECOMENDACIONES
La eficiencia energética en edificios de oficinas es
un factor de ahorro muy importante, pues mediante
pequeñas modificaciones en la utilización de
equipos, o mediante cambios en las instalaciones de
iluminación, se pueden lograr ahorros considerables.
En el presente trabajo se analizó únicamente la
instalación de iluminación, y ciertos parámetros de las
instalaciones de fuerza, pero debe ser complementado
con estudios de aislamiento térmico, ventilación, entre
otros, para lograr la maximización en la eficiencia
energética del edificio de la CENTROSUR.
Tabla 20: Resultados proyectados
Por lo tanto el ahorro sustancial es de $2,705.97,
que mediante la inversión inicial de $5432.08, se
pagará en aproximadamente 2 años.
Los puntos tratados en el proyecto son los siguientes:
Sustitución de luminarias tipo T8 por luminarias tipo
T5 para disminuir potencias consumidas y aumentar
valores de iluminancias en cada zona, utilización
de balastos electrónicos de alta frecuencia en las
luminarias, con el objetivo de disminuir la potencia
y el efecto estroboscópico, y el control de modos
ecológicos presentes en equipos de impresión y
computadores. Estos pequeños cambios pueden
significar un ahorro de $2705.97 en comparación
con la situación actual de la instalación. El análisis
realizado se enfocó únicamente a la primera planta
baja del edificio matriz de la Empresa Eléctrica
Regional Centro Sur C.A. en la ciudad de CuencaEcuador. Dicho estudio debe extenderse a la totalidad
del edificio realizando las consideraciones específicas
de cada puesto de trabajo.
5.1. Rentabilidad
Realizando la amortización de los costos de
consumo, y mantenimiento de las lámparas T5, se
obtienen los datos mostrados en la tabla 21:
Tabla 21: Amortización con cambios T8-T5
REFERENCIAS BIBLIOGRÁFICAS
[1] “Guía de ahorro y eficiencia energética en
oficinas y despachos”. Dirección General de
Industria, Energía y Minas de la comunidad de
Madrid. Madrid, España, 2007.
89
[2]
“Norma Española UNE-EN 12464-1.
Iluminación en los lugares de trabajo Parte
1: Lugares de trabajo en interiores”. Madrid,
España, 2003
[10] “Sección HE3 Eficiencia energética de
las instalaciones de iluminación”. Código
Técnico Español. Madrid, España, 2010
[3] “Guía de auditorías energéticas en edificios
de oficinas en la Comunidad de Madrid”.
Dirección General de Industria, Energía y
Minas de la comunidad de Madrid. Madrid,
2007.
Edgar
Fernando
Durán
Contreras.Universidad
de
Cuenca: Ingeniero Eléctrico.
Universidad
Politécnica
Salesiana: Docente en la facultad
de Ingeniería Eléctrica en las
materias de Sistemas Eléctricos
de Potencia, Sistemas de
Distribución, Electrotecnia I y II, Circuitos Eléctricos
I y II, Luminotecnia, Diseño I. Docente de Seminarios
de Distribución para ECUACER. Superintendente del
sistema de Operación y Distribución de la Empresa
Eléctrica Regional Centro Sur C.A.
[4] “Guía del consumo y facturación de energía
eléctrica. Cliente regulado bt5 residencial”.
Ministerio de Energía y Minas. Lima, 2012.
[5] “Real decreto 1890/2008: Reglamento de
eficiencia energética en instalaciones de
alumbrado exterior y sus instrucciones
técnicas complementarias EA-01 a EA-07”.
Ministerio de Industria, Turismo y Comercio.
Madrid, 2008
Miguel Alberto Dávila Sacoto.Nació en Cuenca en 1988.
Recibió su título de Ingeniero
Electrónico con mención en
Sistemas
Industriales
y
Telecomunicaciones
de
la
Universidad
Politécnica
Salesiana en 2012. Egresado de
la carrera de Ingeniería Eléctrica de la Universidad
Politécnica Salesiana Actualmente se desempeña
como docente de Instalaciones Eléctricas de Interior,
Automatismos y Cuadros Eléctricos, Instalaciones
Automatizadas en Viviendas y Edificios en la Unidad
Educativa Técnico Salesiano.
[6] “Informe técnico: Iluminación LED, Tubos
luminosos, Equivalencia Fluorescentes”.
Grupo Sólydi. 2012
[7] “Libro verde sobre la eficiencia energética o
cómo hacer más con menos”. Comisión de las
Comunidades Europeas. Bruselas, 2005.
[8] “Thin is in: The Skinny on T5 Linear Lighting”.
The Green Savings Company (2011).
Documento en línea disponible en http://
greensavingsco.com/2011/04/thin-is-in-theskinny-on-t5-linear-lighting/
[9] “Proactive approach drives further improvement
of environmental performance of products”.
Lexmark Incorporated. 2011. Documento
en línea disponible en http://www.lexmark.
com/en_GB/about-us/newsroom/newsreleases/2011/09-12-lexmark-reinforcesenvironmental.shtml
90
Evaluación de la Vulnerabilidad del Sistema Eléctrico de Potencia en
Tiempo Real usando Tecnología de Medición Sincrofasorial
J.C. Cepeda†
D. G. Colomé‡
†Centro Nacional de Control de Energía
Instituto de Energía Eléctrica, Universidad Nacional de San Juan
‡
Resumen— Este trabajo presenta una metodología
innovadora para evaluar, en tiempo real, la
vulnerabilidad post-contingencia del sistema
eléctrico de potencia (SEP). Usando como datos
de entrada señales registradas en unidades de
medición sincrofasorial (PMU), se determinan
indicadores que brindan alerta temprana del
riesgo de ocurrencia de colapsos. La evaluación
de vulnerabilidad post-contingencia se estructura
considerando cuatro tipos de inestabilidades
(transitoria, oscilatoria, de frecuencia, y de
voltaje de corto plazo) y posibles sobrecargas.
La propuesta permite evaluar las dos tareas
involucradas en el concepto de vulnerabilidad: i)
valoración del estado de seguridad del sistema, y ii)
análisis de la tendencia del sistema a cambiar sus
condiciones a un estado crítico. La metodología de
evaluación se aplica al sistema de prueba de New
England. Los resultados resaltan una alta eficacia
del esquema integral de evaluación para brindar
alerta temprana de riesgos de eventos en cascada
del SEP, valorando las dos tareas involucradas en
el concepto de vulnerabilidad.
system. The results highlight the comprehensive
assessment scheme’s high level of effectiveness for
providing early warnings about EPS cascading
risk events, analysing the two tasks involved in the
vulnerability concept.
Index Terms— Data mining, stability, vulnerability
assessment, PMU, security, overload.
1. INTRODUCCIÓN
La inclusión de mercados desregulados, la falta
de inversión, la operación con líneas de transmisión
congestionadas, y otras razones técnicas, como
restricciones de tipo ambiental, han llevado a operar
los sistemas de potencia (SEP) peligrosamente cerca
de sus límites físicos. Bajo estas condiciones, ciertas
perturbaciones críticas pueden disparar eventos en
cascada que eventualmente conduzcan al sistema a
colapsos [1]. En tal sentido, se plantea la necesidad
de desarrollar metodologías de protección del SEP
que no solo resguarden a equipos y personas sino que
permitan mantener la seguridad y continuidad del
servicio eléctrico. Por esto, sistemas de protección
especiales (SPS) son diseñados para detectar
condiciones anormales del sistema y efectuar acciones
correctivas que mitiguen las posibles consecuencias.
Sin embargo, las condiciones que llevan al sistema a
la posibilidad de un colapso, es decir, que lo vuelven
vulnerable, no son fáciles de determinar, debido a
que el proceso de un colapso depende de múltiples
interacciones [1].
Palabras clave— Data mining, estabilidad,
evaluación de vulnerabilidad, PMU, seguridad,
sobrecarga.
Abstract— This work presents an innovative
methodology for assessing the post-contingency
vulnerability of electric power system (EPS) in real
time. By using post-contingency electric signals
recorded by phasor measurement units (PMU) as
input data, the approach determines early-warning
indicators about potential collapse hazards.
The post-contingency vulnerability assessment
considers four types of instability (transient,
oscillatory, frequency and short-term voltage)
and possible overloads. The proposal allows for
assessing two tasks involved in the vulnerability
concept: i) system security status assessment, and
ii) analysis of the system’s tendency to change
its conditions to a critical state. The assessment
methodology is applied to the New England test
Este contexto ha establecido la necesidad de
desarrollar modelos matemáticos y herramientas
prácticas que permitan diseñar una red inteligente
(Smart Grid) auto-curable (Self-Healing Grid),
capaz de llevar a cabo funciones de reconfiguración
y control de área extendida en tiempo real [1]. La
evaluación de la vulnerabilidad dinámica (DVA)
del sistema en tiempo real constituye una parte
fundamental de este objetivo ya que permite decidir y
coordinar las acciones de control correctivo en tiempo
real, dependiendo de la evolución del evento [1].
91
En la actualidad, modernas tecnologías tales como
los medidores sincrofasoriales (PMUs) y los sistemas
de monitoreo de área extendida (WAMS) facilitan el
diseño de mecanismos capaces de realizar DVA luego
de ocurrida una contingencia. Los resultados podrían
establecer indicadores que disparen la actuación
de SPSs en tiempo real, permitiendo mejorar el
desempeño de las acciones de control correctivo [2].
2.2. Síntomas de vulnerabilidad del SEP
La vulnerabilidad del SEP está caracterizada por
cuatro diferentes síntomas de estrés: inestabilidad
de ángulo, inestabilidad de voltaje, inestabilidad
de frecuencia y sobrecargas [5]. De estos síntomas,
el presente artículo se enfoca en analizar cinco
fenómenos que ocurren en el llamado “corto plazo”,
que se limita a 15 o 20 segundos luego de ocurrida una
perturbación. Estos fenómenos incluyen: estabilidad
transitoria, estabilidad oscilatoria, estabilidad de
voltaje de corto plazo, estabilidad de frecuencia de
corto plazo, y sobrecargas post-contingencia.
Este trabajo presenta una novedosa metodología
que permite realizar DVA, tomando en consideración
cinco diferentes síntomas de alerta, tales como:
inestabilidad transitoria, inestabilidad oscilatoria,
inestabilidad de voltaje de corto plazo, inestabilidad
de frecuencia de corto plazo, y sobrecargas. La
propuesta permite evaluar las dos tareas involucradas
en el concepto de vulnerabilidad: i) valoración del
estado de seguridad del sistema (seguridad estática y
dinámica), y ii) análisis de la tendencia del sistema a
cambiar sus condiciones a un estado crítico llamado
“estado al borde del colapso”.
2.3. Sistema de medición sincrofasorial
Las unidades de medición sincrofasorial (PMUs)
son dispositivos que permiten estimar sincrofasores
(fasores que tienen como referencia angular a una
onda coseno de frecuencia nominal, sincronizada
con el tiempo UTC (Universal Time Coordinated)
de las ondas sinusoidales de corriente y voltaje AC,
en diferentes nodos de un SEP [6]. Para calcular un
sincrofasor la PMU utiliza un algoritmo de estimación
fasorial. Estos algoritmos utilizan un número N de
muestras en el tiempo para efectuar la estimación
del fasor. El algoritmo más comúnmente utilizado
es la transformada discreta de Fourier [6]. La alta
precisión, velocidad de respuesta y sincronización de
tiempo hacen de las PMUs equipos apropiados para
el monitoreo global en estado estable y dinámico,
así como para aplicaciones en protección y control,
como parte básica de un sistema de monitorio de
área extendida (WAMS – Wide Area Measurement
System) [7].
Las principales contribuciones presentadas en este
trabajo son: i) un novedoso método para estimar el
estatus de vulnerabilidad dinámica post-contingencia
del sistema basado en minería de datos, y ii) una
metodología para evaluar vulnerabilidad en tiempo
real basada en varios índices de desempeño.
2. MARCO TEÓRICO REFERENCIAL
2.1. Vulnerabilidad del Sistema de Potencia
Un sistema vulnerable opera con un reducido
nivel de seguridad que lo vuelve débil a los
efectos acumulados de una serie de disturbios. La
vulnerabilidad es un indicativo esencial de que el
sistema se dirige a fallas en cascada [3]. El concepto
de vulnerabilidad involucra al nivel de seguridad
estática y dinámica del SEP y la tendencia a cambiar
sus condiciones a un estado crítico [4], denominado
“estado al borde del colapso” [5].
2.4. Herramientas matemáticas relevantes
2.4.1 Simulación de Montecarlo
Tradicionalmente, los análisis de contingencias
del SEP se han estudiado a través de metodologías
deterministas. Estos métodos ignoran la naturaleza
estocástica o probabilística de los SEP reales, y por lo
tanto ciertas perturbaciones graves, que podrían llevar
el sistema a potenciales condiciones de inseguridad,
podrían ser ignoradas [1]. Por el contrario, técnicas
de análisis probabilístico, como la simulación de
Montecarlo (MC), ofrecen la posibilidad de obtener
resultados más realistas, ya que evita el uso de
modelos simplificados [1].
Un área vulnerable es una sección específica
del sistema en la que la vulnerabilidad comienza
a desarrollarse. La ocurrencia de una contingencia
severa en las áreas vulnerables, bajo una condición
de operación de alto estrés, define al sistema en el
“estado al borde del colapso”.
La evaluación de la vulnerabilidad es una tarea
fundamental dentro de la estructura de una red autocurable ya que tiene la función de detectar la necesidad
de llevar a cabo acciones de control de área extendida.
El método de Montecarlo es un procedimiento
repetitivo que consiste en evaluar, en cada iteración,
92
la respuesta del sistema a través de una función de
incertidumbre, utilizando un conjunto de variables
de entrada que se generan al azar a través de sus
funciones de distribución de probabilidad (PDF),
con el fin de obtener valores numéricos aleatorios de
salida [1]. Este trabajo aplica simulaciones basadas
en MC con el objetivo de generar datos estáticos o
dinámicos post-contingencia del sistema de potencia.
hiperplano óptimo (OH), la cual se determina por
una pequeña parte del conjunto de entrenamiento
denominado los vectores soporte (SV) [9].
Con esta finalidad, SVM emplea una función de
mapeo definida mediante las denominadas funciones
de kernel, las cuales pueden ser de diferentes tipos,
tales como: lineales, polinomiales, gaussiana (radial
basis -RBF-), entre otras. Este artículo aplica la RBF
kernel puesto que esta función es capaz de manejar
las posibles relaciones no lineales existentes entre
las etiquetas y los individuos. SVM resulta ser más
robusto para evitar problemas de sobre entrenamiento
[9].
2.4.2 Funciones empíricas ortogonales
Funciones empíricas ortogonales (EOF) son el
resultado de aplicar la descomposición en valores
singulares (SVD) a datos de series de tiempo [8]. EOF
es una técnica de minería de datos para series de tiempo
que permite descomponer una función en el tiempo
discreta f(t) (tales como el ángulo o la magnitud del
voltaje, o la frecuencia eléctrica) en una suma de un
conjunto de funciones patrones discretas (las EOFs).
La transformación EOF se utiliza con el fin de extraer
los componentes individuales más predominantes de
la forma de onda de una señal compuesta (similar
al análisis de Fourier), que permiten revelar los
principales patrones inmersos en la señal.
Tanto la aplicación de clasificación (SVC), como
la de regresión (SVR) son empleadas en este trabajo
con el objetivo de procesar la información fasorial
en tiempo real y obtener algún tipo de conocimiento
que brinde indicadores del nivel de vulnerabilidad del
SEP.
3. PROPUESTA METODOLÓGICA
El presente trabajo propone una metodología
completa para evaluar la vulnerabilidad dinámica
post-contingencia (DVA) del sistema de potencia
en tiempo real mediante el uso de mediciones PMU
como datos de entrada. La metodología de evaluación
es capaz de dar alerta temprana sobre posibles
colapsos del sistema. El procedimiento de evaluación
en tiempo real se describe esquemáticamente en la
Fig. 1.
Así, una función discreta fk puede ser escrita como
la suma de varias funciones (vj) que son naturalmente
ortogonales (pues constituyen vectores propios
ortonormales obtenidos de la aplicación de SVD a la
matriz de todas las funciones discretas F), afectadas
por coeficientes dados por números reales
(1)
Donde λj1/2 es el j-ésimo valor singular de F
asociado a los vectores propios uk y vj obtenidos de
aplicar SVD a F. Siendo que vj representa la j-ésima
EOF y su coeficiente
corresponde al llamado
“EOF score”.
El número de EOFs escogidas depende de la
variabilidad explicada que se desee, de acuerdo a
(2)
2.4.3 Máquinas de soporte vectorial
Figura 1: Estructura metodológica de evaluación en tiempo
real
Las máquinas de soporte vectorial (SVM) forman
parte de las herramientas de minería de datos basadas
en aprendizaje. SVM está diseñada para solucionar
problemas de clasificación (C) y regresión (R) [9].
El esquema comienza con la adquisición de datos
de las PMU en cada período de actualización. Estos
datos son recibidos y pre-procesados en el centro
de control con el fin de filtrar el ruido y depurar los
posibles valores atípicos (este artículo supone que
esta etapa de pre-procesamiento ha sido previamente
realizada).
La estructura de SVM se basa en resolver un
problema de optimización cuya solución constituye
una función de decisión óptima denominada
93
En tiempo real, el SEP se divide en zonas eléctricas
coherentes a través de una herramienta matemática
que analiza la coherencia de los datos dinámicos
de las PMUs. Posteriormente, cinco índices de
vulnerabilidad, que reflejan el desempeño del sistema
en cuanto a sus síntomas de estrés (dividido en
dos tipos de fenómenos: “lentos” y “rápidos”), se
calculan para cada área eléctrica, con el propósito de
identificar las áreas vulnerables. Estos índices tienen
inmerso la valoración de las dos tareas involucradas
en el concepto de vulnerabilidad.
para determinar aproximadamente la distribución
espacial de las DVRs. Posteriormente, un clasificador
de soporte vectorial (SVC) permite estimar el estatus
de vulnerabilidad dinámica post-contingencia del
SEP. Esto, con el objetivo de determinar si el estado de
operación actual del sistema se encuentra o no dentro
de la región “vulnerable”, con lo cual se logra evaluar
la tendencia del sistema a cambiar sus condiciones a
un estado crítico respecto de fenómenos TVFS.
La metodología comprende varias etapas de
aprendizaje fuera de línea. Tres subprocesos
conforman la entrada de esta estructura inteligente: i)
PMUs adecuadamente instaladas según se especifica
en [10], ii) modelos dinámicos del SEP validados
(a través, de por ejemplo, la metodología descrita
en [11]), y iii) preparación de datos (funciones de
distribución de probabilidades -PDF-) para simulación
de MC.
Las DVRs se determinan empíricamente a
través de la minería de los datos post-contingencia
registrados por PMUs. Como alternativa a la
limitada disponibilidad de estadísticas de mediciones
dinámicas, simulaciones probabilísticas de MC
de contingencias N-1 permiten obtener respuestas
dinámicas que representen las registradas por PMUs
en tiempo real, a través de evaluar la respuesta del
sistema en el dominio del tiempo [1].
El proceso de aprendizaje pretende establecer una
estructura de reconocimiento de patrones (basada en
minería de datos) que permita estimar la tendencia
del sistema de cambiar sus condiciones a un estado al
borde del colapso. La Fig. 2 representa la estructura
general de las etapas de aprendizaje fuera de línea
propuestas.
Una vez estructurada la base de datos dinámica, ésta
se analiza usando EOFs para determinar las DVRs del
sistema, sobre la base de los patrones asociados a los
tres fenómenos TVFS. Los correspondientes “EOF
scores” conforman vectores de números reales que
representan patrones del comportamiento dinámico
post-contingencia del sistema. Estos vectores de
patrones permiten el mapeo espacial de las DVRs
en el sistema de coordenadas formado por las EOFs.
Adicionalmente, con el objetivo de evitar que valores
numéricos grandes den una errónea interpretación de
las regiones de vulnerabilidad, se sugiere normalizar a
los vectores patrón antes de mapear las DVRs. En este
trabajo de investigación, se adopta una normalización
lineal en el rango de [0, 1].
3.1.1 Reconocimiento de DVRs post-contingencia
Se propone un novedoso enfoque para estimar
regiones de vulnerabilidad dinámica post-contingencia
(DVRs), teniendo en cuenta tres fenómenos de
estabilidad de corto plazo (estabilidad transitoria,
de voltaje y de frecuencia -TVFS-). Las DVRs están
constituidas por dos áreas: la región “vulnerable” y la
“no vulnerable”, delimitadas por un hiperplano.
Cada vector patrón tiene asociada una “etiqueta
de clase” específica en función del estatus de
vulnerabilidad resultante en la simulación. Estas
etiquetas de clase podrían corresponder a un caso
no vulnerable (etiqueta 0) o a un caso vulnerable
(etiqueta 1), dependiendo de si uno o más de los relés
de protección locales asociados a los fenómenos en
estudio (relé de pérdida de sincronismo -OSR-, relé
de baja y alta frecuencia -FR-, relés de bajo y alto
voltaje -VR-) se han disparado durante el progreso del
evento. Usando los vectores de patrones resultantes y
sus correspondientes etiquetas de clase de estado de
vulnerabilidad, las DVRs pueden ser numéricamente
mapeadas en el sistema de coordenadas formado por
las principales EOFs.
Un método de reconocimiento de patrones basado
en funciones empíricas ortogonales (EOFs) se utiliza
Con el fin de capturar adecuadamente la respuesta
del sistema para los diferentes fenómenos de
Figura 2: Estructura metodológica de evaluación en tiempo
real
3.1. Predicción del Estatus de Vulnerabilidad
para Fenómenos Rápidos TVFS
94
estabilidad TVFS, varias ventanas de tiempo (TW)
tienen que ser definidas. Estas ventanas de tiempo se
establecen en función de las estadísticas de los tiempos
de disparo de los relés, resultantes de la simulación
de MC, influenciados por el retraso de tiempo por
comunicación de los sistemas WAMS (tdelay).
Cada elemento de los conjuntos de entrenamiento
y prueba contiene un “valor objetivo” (etiqueta de
clase) y varios “atributos” (vectores de patrones que
mejor representan las DVRs para cada TW).
Sobre la base de las dos regiones asociadas a las
DVRs, un clasificador de dos clases se adopta con
el fin de especificar el estatus de vulnerabilidad, ya
sea como un caso no vulnerable o como un caso
vulnerable.
En primer lugar, el mínimo tiempo de disparo de
la simulación de MC (tmin) tiene que ser determinado.
Este tiempo representa el retardo máximo admisible
para el accionamiento de cualquier acción de control
correctiva, el cual tiene que ser afectado por tdelay.
Hay dos aspectos esenciales a tener en cuenta para
entrenar el SVC:
(3)
• Elección de apropiados vectores de patrones,
que muestren la evolución de los fenómenos
específicos. En este sentido, se necesita un
procedimiento para la extracción y selección
de la información más relevante. Así, un
método que emplea árboles de decisión
(DT), originalmente introducido en [13], en
combinación con una determinada variabilidad
explicada (superior a 97%), ha sido empleado
para resolver este problema.
• Identificación de los mejores parámetros
del SVC. Con este objetivo, se ha definido
un identificador paramétrico orientado a la
maximización de la precisión de clasificación,
el cual se basa en la optimización de mapeo
media-varianza en su versión enjambre
(MVMOS), algoritmo presentado inicialmente
en [11].
Donde tOSRi, tVRi y tFRi son los tiempos de disparo de
los relés OSR, VR y FR, respectivamente, resultantes
de las N repeticiones de MC.
Dado que los datos post-contingencia comprenden
las muestras tomadas inmediatamente después del
despeje de la falla, la primera ventana de tiempo
(TW1) se define por la diferencia entre tmin y el tiempo
de despeje (tcl).
(4)
El resto de las ventanas de tiempo se definen
basándose en el concepto de intervalo de confianza
estadística relacionado con la desigualdad de
Chebyshev [12], el cual especifica que al menos
el 89% de los datos se encuentran dentro de tres
desviaciones estándar (3σ).
3.1.3 Implementación de la evaluación en tiempo
real
Para la aplicación en tiempo real, los SVC
entrenados fuera de línea serán encargados de
clasificar el estatus de vulnerabilidad dinámica postcontingencia del SEP, usando los fasores de voltaje
y frecuencias post-contingencia de PMUs como los
datos de entrada.
(5)
Donde std{.} representa la desviación estándar (σ)
de los tiempos de disparo del relé que más interseque
la correspondiente ventana de tiempo TWk.
3.1.2 Predicción del estatus de vulnerabilidad
En primer lugar, estas señales dinámicas deben
ser transformadas a sus correspondientes vectores
de patrones (EOF scores) normalizados. Para este
propósito, los datos tienen que ser multiplicados por
los EOFs determinados en el entrenamiento fuera de
línea y almacenados en el procesador del centro de
control. A continuación, EOF scores serán los datos
de entrada para los SVC previamente entrenados,
los cuales indicarán automáticamente si el sistema
se encuentra dentro de las regiones “vulnerable”
(etiqueta 1) o “no vulnerable” (etiqueta 0) asociadas a
fenómenos TVFS.
Las DVRs son utilizadas para especificar la
posición relativa del estado dinámico real del SEP con
respecto a su hiperplano límite, lo que se puede lograr
mediante el uso de un clasificador inteligente. Este
artículo emplea un clasificador de soporte vectorial
(SVC).
El SVC necesita de un aprendizaje preliminar fuera
de línea. Esta tarea se lleva a cabo usando la base de
datos post-contingencia obtenida de la simulación de
MC y los correspondientes DVRs asociados. Los datos
se dividen en conjuntos de entrenamiento y prueba.
95
Un índice de estabilidad transitoria en tiempo real
(TSI) se determina a través de la predicción de los
ángulos de rotor de área referenciados al centro de
inercia (COI) utilizando mediciones PMU como datos
de entrada. Este índice brinda una cuantificación
rápida del nivel actual de estabilidad transitoria del
SEP.
3.2. Evaluación de la vulnerabilidad en tiempo
real
La evaluación completa de vulnerabilidad en
tiempo real propuesta está orientada a determinar las
áreas vulnerables del SEP y evaluar la vulnerabilidad
de cada una de ellas, tomando en cuenta los dos
aspectos implicados en el concepto de vulnerabilidad:
i) la evaluación de la tendencia a llegar a un estado
crítico, y ii) la valoración del nivel de seguridad
actual del SEP.
El método utiliza regresores inteligentes que
permiten estimar los ángulos de rotor referenciados al
COI en tiempo real. Para esto se emplean regresores
de soporte vectorial (SVR). De manera similar al
SVC, antes de entrenar un SVR se requiere identificar
los parámetros óptimos del regresor. En este sentido,
MVMOS es también aplicado para determinar los
parámetros óptimos del SVR.
3.2.1 Identificación de áreas coherentes
El objetivo de partir al SEP en áreas coherentes
en tiempo real es determinar las áreas vulnerables
en las que existe la posibilidad de ocurrir eventos en
cascada.
En la implementación en tiempo real, los regresores
previamente entrenados estimarán los ángulos de
rotor referenciados al COI por cada área asociada
a los PMUs, usando como entradas los datos de los
fasores de voltaje post-contingencia medidos en las
PMUs. Estos ángulos de rotor son luego utilizados
para calcular un índice de estabilidad transitoria (TSI)
para cada área eléctrica k, así:
La barra donde cada PMU ha sido previamente
ubicada representa el “centroide” de un área eléctrica
“asociada a la PMU”. Puesto que las áreas coherentes
pueden cambiar dependiendo del estado de operación
y la contingencia que se presente [8], es necesario
analizar las diferentes posibilidades de coherencia
existente entre las áreas asociadas a las PMUs. El
objetivo es unir dos o más áreas asociadas a las PMUs
en “zonas”, cuando se detecte coherencia entre ellas.
En este sentido, el método recursivo de agrupación
por coherencia presentado en [8] y [14] es empleado
para este propósito. Así, matrices de disimilaridad
se construyen a partir de los datos medidos en cada
PMU. El algoritmo de agrupación C-means difuso
(FCM) [14] es luego aplicado a estas matrices para
determinar los grupos de PMUs que presentan
coherencia eléctrica. Entonces, las zonas coherentes
estarán formadas por aquellas áreas asociadas a las
PMUs que hayan sido agrupadas.
(6)
son el índice de estabilidad
Donde TSIk, y
transitoria y el ángulo de rotor referido al COI en
radianes de la k-ésima área. Debido a que el TSI está
concebido para dar alerta temprana, no es necesario
calcularlo cuando los ángulos del rotor están dentro
de un rango de operación normal. Por tanto, el
máximo valor admisible de los ángulos de rotor
referidos al COI para estabilidad estática (es decir,
el máximo ángulo determinado por restricciones de
estado estable -δlim-) es usado como el límite inferior
de cómputo.
3.2.2 Caracterización de la vulnerabilidad para
fenómenos rápidos TVFS
En esta sección se describe el cómputo de tres
índices, en el rango [0, 1], que reflejan el nivel
de seguridad del SEP respecto de los fenómenos
TVFS. Estos índices son luego combinados con
los resultados de la predicción del estatus de
vulnerabilidad presentado en 3.1 con el objetivo de
evaluar los dos aspectos que conforman el concepto
de vulnerabilidad.
B. Índice de desviación de voltaje (VDI)
Basado en la operación de los relés locales de bajo
y sobre voltaje, se define un índice de desviación
de voltaje (VDI). VDI refleja las características de
funcionamiento de este tipo de relés, que se activan
cuando el voltaje cae por debajo de un límite inferior
Vlower (o supera un valor umbral superior Vupper)
durante más de un período predefinido de tiempo
(tvmax). VDI es calculado para cada barra donde las
PMUs están localizadas, como sigue:
A. Índice de estabilidad transitoria (TSI)
96
Donde Vlower y Vupper son los límites inferior y
superior de voltaje, tvmax es el periodo máximo predefinido antes de que los relés de voltaje se disparen,
y tn es el periodo en el cual V < Vlower o V > Vupper.
alerta sobre la tendencia del sistema a cambiar sus
condiciones a un estado crítico (es decir, cuando la
predicción del estatus de vulnerabilidad adquiere el
valor de “1”). Con el fin de incrementar la seguridad,
esta penalidad se aplica únicamente si el índice
TVFS correspondiente ha excedido un valor mínimo
previamente especificado.
Luego, el VDI para cada área eléctrica k es
determinado por la siguiente expresión:
3.2.3 Caracterización de la vulnerabilidad para
fenómenos lentos
(7)
(8)
Dos de los síntomas de vulnerabilidad se
caracterizan por presentar rangos de tiempo que
varían entre segundos a varios minutos, e incluso
horas. Estos síntomas corresponden a la estabilidad
oscilatoria y a sobrecargas de componentes del
sistema.
C. Índice de desviación de frecuencia (FDI)
La desviación de la frecuencia respecto de su valor
nominal es un claro indicador del efecto dinámico
producido por una contingencia [14]. Bajo esta
consideración, se define un índice de desviación de
frecuencia (FDI) para cada PMU como sigue:
A. Índice oscilatorio (OSI)
En tiempo real, señales eléctricas registradas
con PMUs pueden ser descompuestas en sus
modos de oscilación, utilizando algún algoritmo de
identificación modal [14]. En este sentido, análisis
Prony se usa en este trabajo para estimar la frecuencia
y el amortiguamiento de los modos dominantes que
son observables en una señal eléctrica en tiempo
real [14]. Así, se pueden identificar aquellos modos
que presentan valores de amortiguamiento pobres o
negativos, llamados modos críticos.
(9)
Donde |Δfi| es la variación de frecuencia medida en
la PMU i, y Δfmax es la desviación máxima admisible
del sistema. Note que Δfmax cambia dependiendo del
fenómeno. Esto es, si Δfi < 0 ==> Δfmax corresponde
al límite de baja frecuencia; en tanto que, si Δfi > 0
==> Δfmax corresponde al límite de sobre frecuencia
del sistema.
Una vez que los modos críticos se han identificado
para cada área, se calcula un índice que representa los
posibles problemas de amortiguamiento en el sistema.
Para esto, se define un límite de amortiguamiento
(ζlim) bajo el cual el sistema se considera en cierto
nivel de problema oscilatorio. Este artículo considera
que ζlim es del 5% y la señal eléctrica elegida es la
potencia activa medida por la PMU. Así, un índice
oscilatorio (OSI) para el modo menos amortiguado se
define por (11).
Luego, el FDI para cada área eléctrica k es
determinado por la siguiente expresión:
(10)
D. Evaluación completa de vulnerabilidad para
fenómenos TVFS
Los índices para fenómenos TVFS anteriormente
definidos (TSI, VDI, y FDI) se combinan con los
resultados obtenidos de la predicción del estatus
vulnerabilidad, descrito en el literal 3.1, con el
objetivo de llevar a cabo las dos tareas involucradas
en el concepto de vulnerabilidad.
(11)
Donde ζi = min{ζ de los modos de la potencia i}
es el modo más pobremente amortiguado obtenido
de la aplicación de análisis Prony a la señal de
potencia activa i en cada PMU i, y ζlim es el límite de
amortiguamiento aceptable para el SEP.
Para este propósito, una “penalidad” se incluye
a los índices en función del resultado obtenido a
partir de la predicción del estatus de vulnerabilidad,
teniendo en cuenta la ventana de tiempo en la que el
estatus de vulnerabilidad se ha estimado y arreglos
adecuados de compuertas lógicas. Esta penalidad tiene
el objetivo de forzar al índice TVFS correspondiente
al valor de “1”, cuando el estatus de vulnerabilidad
resultante del reconocimiento de patrones brinde una
Luego, el OSI para cada área eléctrica k es
determinado por la siguiente expresión:
97
(12)
Luego, el OVI para cada área eléctrica k es
determinado por la siguiente expresión:
B. Índice de sobrecarga (OSI)
Los flujos de potencia a través de las ramas del
sistema pueden variar después de una contingencia
debido a la modificación topológica de la red. Altas
corrientes eléctricas pueden entonces provocar
sobrecargas, lo que podría incrementar el problema de
vulnerabilidad [14]. Para evaluar posibles sobrecargas,
este artículo usa factores de distribución estadísticos
(SDFs) con el objetivo de predecir el cambio del
flujo de potencia por los vínculos luego de producida
una contingencia. El SDF se define por la media de
los factores de distribución ac (ac-DF) resultantes de
una simulación de MC [15]. Los ac-DFs pueden ser:
factor por cambio de inyección (ac-ψiek) o factor por
salida de un vínculo (ac-ς(eq)ek).
4. RESULTADOS DE SIMULACIONES
La metodología propuesta se prueba en el sistema
IEEE New England de 39 barras, ligeramente
modificado con el fin de satisfacer el criterio de
seguridad N-1, y en el cual previamente se han ubicado
PMUs de acuerdo a los resultados presentados en [8].
La Fig. 3 muestra el diagrama unifilar del sistema de
prueba, con la respectiva ubicación de las PMUs.
Donde k, q son vínculos, fek es el flujo de potencia
aparente post-contingencia, fekpre-c es el flujo de
potencia aparente pre-contingencia, ΔSi es el cambio
de potencia aparente de inyección en la barra i, acDFjk es el factor de distribución ac (ψiek o ς(eq)ek) del
vínculo k provocado por la continencia j y n es el
número de escenarios.
Figura 3: Diagrama unifilar del sistema de prueba
Las simulaciones consisten en varias contingencias
aleatoriamente provocadas a través del método de
Montecarlo. Para esto, flujos óptimos de potencia
(OPF), que permiten determinar estados operativos
realistas, son primero simulados con el paquete
MATPOWER. Estos estados operativos son las
entradas al análisis de contingencias estáticas o
dinámicas, simuladas en DIgSILENT Power Factory
a través de su programación DPL.
Los SDFs resultantes permiten estructurar
un algoritmo de estimación de sobrecarga postcontingencia en tiempo real basado en tablas
previamente establecidas. Para esto, en tiempo real,
un clasificador SVC multiclase orienta la selección
de los mejores SDF dependiendo del estado real
del SEP. Posteriormente, los SDFs seleccionados de
la tabla permiten estimar el nivel de sobrecarga en
cada vínculo ek del SEP. Finalmente, un índice de
sobrecarga (OVI) se calcula para cada vínculo de
acuerdo a (16).
(17)
Un total de 10.000 casos han sido simulados, de los
cuales 7.600 son TVFS estables o "no vulnerables"
y 2.400 son inestables o "vulnerables": 1.308
corresponden a inestabilidad transitoria, 682 son
inestables por frecuencia, y 410 son inestables por
voltaje. Adicionalmente, 84 casos de los 7600 casos
TVFS no vulnerables corresponden a casos inestables
por oscilaciones. En todos estos casos se analiza
además las posibles sobrecargas por los vínculos de
transmisión.
(16)
La Fig. 4 presenta la respuesta dinámica postcontingencia registrada en cada PMU para una de las
iteraciones de Montecarlo correspondiente a un caso
de inestabilidad transitoria.
Donde Slower y Supper son los límites inferior y
superior de una banda de riesgo de sobrecarga
determinada para cada vínculo en función del análisis
de sus límites térmico, de estabilidad de ángulo y de
estabilidad de voltaje.
98
Tabla 1: Precisión de clasificación de los SVCs entrenados
La evaluación completa de vulnerabilidad TVFS
es luego estructurada combinando los resultados de
la estimación del estatus de vulnerabilidad (salida de
los SVCs) con los índices TSI, VDI, y FDI. Para esto,
arreglos de compuertas lógicas son estructurados para
introducir la penalidad en los respectivos índices.
A manera de ejemplo, la Fig. 6 muestra el arreglo
correspondiente a las ventanas de tiempo TW1 o TW2.
Figura 4: Oscilogramas de PMUs - caso inestabilidad
transitoria
Usando como entrada las señales de las PMUs,
se determinan las diferentes DVRs, de acuerdo a lo
descrito en el apartado 3.1. Para esto, 5 diferentes
ventanas de tiempo han sido determinadas. La Fig. 5
presenta la distribución tridimensional de los vectores
de patrones obtenidos del análisis realizado a las
señales post-contingencia correspondientes al ángulo
de voltaje, con ventana TW1.
Figura 6: Esquema de compuertas lógicas para TW1 v TW2
Seguidamente se realiza la evaluación de
vulnerabilidad completa, para lo cual primero
se determina, en tiempo real, la coherencia entre
PMUs con el objetivo de definir las zonas eléctricas
vulnerables del sistema. La Fig. 7 muestra los
resultados de los índices TVFS para el caso de
inestabilidad transitoria presentado en Fig. 4. Note
como TSI presenta un punto de inflexión a los 0,48
s causado por la actuación de la penalidad. Esto hace
que TSI llegue al valor de “1” a los 0,5 s lográndose
predecir el problema de inestabilidad transitoria 480
ms antes de que se produzca la pérdida de sincronismo;
la cual, de acuerdo a los resultados de la simulación,
ocurre a los 0.9854 s.
La Tabla 2 presenta los resultados de la evaluación
completa de vulnerabilidad para fenómenos TVFS
en tiempo real, donde se utilizan los conceptos de
dependabilidad y seguridad para evaluar el desempeño
de la metodología.
Figura 5: DVRs para el ángulo de voltaje con TW1
Posteriormente, usando como entrada los DVRs
se procede al entrenamiento de los correspondientes
SVCs. La precisión de la clasificación de los SVCs
para cada TW se presenta en la Tabla 1, que además
incluye la precisión de otros clasificadores tales
como: clasificador de árbol de decisión (DTC),
red de reconocimiento de patrones (PRN), análisis
discriminante (DA) y redes neuronales probabilísticas
(PNN). Es posible observar que SVC supera a todos
los otros clasificadores en términos de precisión
de clasificación (CA). Además, SVC es el único
clasificador que permite la obtención de más de 99%
de precisión para todos los TW.
Adicionalmente, la estimación de sobrecargas y
su correspondiente evaluación de vulnerabilidad, así
como el seguimiento en tiempo real de la estabilidad
oscilatoria se aplican al sistema de prueba. La Tabla
3 muestra un resumen del número de los 84 casos
oscilatorios, localizados en tres rangos de OSI. En
la mayor parte de los casos OSI brinda una adecuada
alerta temprana respecto de la ocurrencia real de
riesgo oscilatorio, alcanzando un valor de “1”.
99
5. CONCLUSIONES Y RECOMENDACIONES
Figura 7: Índices TVFS para el caso de inestabilidad
transitoria
Figura 7: Índices TVFS para el caso de inestabilidad
transitoria
Tabla 2: Desempeño de la metodología de evaluación TVFS
Tabla 3: OSI por PMU - resumen del número de casos
En 83 casos al menos una PMU proporciona un
OSI igual a 1, lo que pone de manifiesto el excelente
desempeño de OSI para alertar sobre inestabilidad
oscilatoria. En el único caso en el que los OSI no
alcanzan el valor de 1, el índice de PMU 5 llega al
valor de 0,5006, lo que también brinda una alerta
temprana.
Con el objetivo de estructurar una red inteligente
auto curable, el control del sistema se debería ajustar
dependiendo del progreso en tiempo real de los eventos.
Bajo este concepto, la evaluación de la vulnerabilidad
dinámica en tiempo real (DVA) se convierte en una
tarea fundamental dentro de esta estructura. En este
sentido, el presente artículo introduce un nuevo
enfoque para evaluar vulnerabilidad a través de la
partición de la red eléctrica en áreas, y la valoración
de su nivel de vulnerabilidad mediante índices de
desempeño. Los índices permiten evaluar cinco
diferentes fenómenos: inestabilidad transitoria
(TSI), inestabilidad de voltaje de corto plazo (VDI),
desviaciones de frecuencia fuera de límites (FDI),
oscilaciones eléctricas poco amortiguadas (OSI), y
sobrecargas (OVI). Estos índices son conjugados con
una metodología que permite estimar el estatus de
vulnerabilidad post-contingencia del sistema, basada
en reconocimiento de patrones a través de minería de
datos. Esto, con el objetivo de brindar alerta temprana
mediante la evaluación de los dos aspectos que
componen el concepto de vulnerabilidad. A partir de
los resultados del presente trabajo de investigación,
es posible plantear trabajos futuros que involucren
el diseño de acciones de control correctivo que usen
como entrada los resultados de la evaluación de la
vulnerabilidad planteada.
REFERENCIAS BIBLIOGRÁFICAS
Asimismo, la Tabla 4 presenta un resumen de los
resultados del análisis de sobrecargas de vínculos
para los casos en los que se presentó riesgo de
sobrecarga de ciertas líneas de transmisión (OVI >
0). La mayoría de los casos muestran una excelente
precisión en la estimación, principalmente en el rango
(0,5; 1] en el que podrían ser necesarias medidas de
control correctivo.
Tabla 4: OVI por vínculo - resumen del número de casos
[1] Cepeda J., Rueda J., Erlich I. & Colomé G.
(2012). “Recognition of Post-contingency
Dynamic Vulnerability Regions: Towards
Smart Grids”, IEEE PES General Meeting,
San Diego-California.
[2] Cepeda J. & Colomé G. (2011). “Mediciones
PMU para la Evaluación de la Seguridad
Dinámica y Vulnerabilidad de los SEP”, XIV
ERIAC, Ciudad del Este, Paraguay.
[3] Huang Z., Zhang P., et al (2009). “Vulnerability
Assessment for Cascading Failures in Electric
Power Systems”, IEEE PES Power Systems
Conference and Exposition, Seattle, WA.
[4] Fouad A., Qin Zhou & Vittal V. (1994).
“System vulnerability as a concept to assess
power system dynamic security”, IEEE
Transactions on Power Systems, pp. 10091015.
100
[5] McGillis D., El-Arroudi K., Brearley R. & Joos
G. (2006). “The Process of System Collapse
Based on Areas of Vulnerability”, Conference
on Power Engineering, pp. 35 – 40, Halifax,
NS.
[14] Cepeda J. & Colomé G. (2012). “Vulnerability
Assessment of Electric Power Systems through
identification and ranking of Vulnerable
Areas”, International Journal of Emerging
Electric Power Systems, Volume 13, Issue 1.
[6] Cimadevilla R. (2009). “Fundamentos de la
Medición de Sincrofasores”. XIII ERIAC,
Puerto Iguazú, Argentina.
[15] Cepeda J., Ramírez D. & Colomé G. (2012).
“Probabilistic-based Overload Estimation
for real-time Smart Grid Vulnerability
Assessment”, IEEE T&D-LA, Montevideo,
Uruguay.
[7] Martinez C. Parashar M., Dyer J., & Coroas
J. (2005). “Phasor Data Requirements for Real
Time Wide-Area Monitoring, Control and
Protection Applications”, White Paper – Final
Draft.
[8] Björnsson H. & Venegas S. (1997). A Manual
for EOF and SVD Analyses of Climatic Data.
C2GCR Report No. 97-1, McGill University.
[9] Cepeda J., Colomé G. & Castrillón N. (2011).
“Dynamic Vulnerability Assessment due to
Transient Instability based on Data Mining
Analysis for Smart Grid Applications”, IEEE
PES ISGT-LA, Medellín, Colombia.
[10] Cepeda J., Rueda J., Erlich I. & Colomé
G. (2012). “Probabilistic Approach-based
PMU placement for real-time power system
vulnerability assessment”, IEEE PES ISGTEU, Berlin, Germany.
[11] Cepeda J. & J. Rueda (2013). “Identificación
de
equivalentes
dinámicos
mediante
optimización de mapeo media-varianza
en ambiente DIgSILENT Power Factory”,
Revista Técnica Energía, Nº 9.
[12] Han J. & Kamber M. (2006). Data Mining:
Concepts and Techniques. Second edition,
Elsevier, Morgan Kaufmann Publishers.
[13] Teeuwsen S. P. (2005). “Oscillatory
Stability Assessment of Power Systems
using Computational Intelligence”. Tesis
de Doctorado, Universität Duisburg-Essen,
Germany.
Jaime
Cristóbal
Cepeda.Recibió el título de Ingeniero
Eléctrico en la Escuela
Politécnica Nacional en 2005 y
el de Doctor en Ingeniería en la
Universidad Nacional de San
Juan en 2013. Entre 2005 y
2009 trabajó en Schlumberger y
en el CONELEC. Colaboró como investigador en el
Instituto de Energía Eléctrica, Universidad Nacional
de San Juan, Argentina y en el Instituto de Sistemas
Eléctricos de Potencia, Universidad Duisburg-Essen,
Alemania entre 2009 y 2013. Actualmente, se
desempeña como Jefe de Investigación y Desarrollo
del CENACE. Sus áreas de interés incluyen la
evaluación de vulnerabilidad en tiempo real y el
desarrollo de Smart Grids
Delia Graciela Colomé.- Obtuvo
el título de Ingeniera Electrónica
en 1985 y el de Doctora en
Ingeniería Eléctrica en 2009,
ambos de la Universidad
Nacional de San Juan, Argentina.
Desde
1983,
ha
sido
investigadora y profesora en el
Instituto de Energía Eléctrica, Universidad Nacional
de San Juan. Durante este tiempo, ha trabajado como
directora de proyectos y como ingeniera senior en
numerosos proyectos de asistencia técnica en
Argentina y varios países de América Latina. Sus
áreas de especialidad son el control y supervisión de
SEP, y el modelado y simulación de SEP.
101
Incorporación de Dispositivos FACTS en el Sistema Nacional
Interconectado
N. F. Chamorro
P. X. Verdugo
Centro Nacional de Control de Energía, CENACE
Resumen— Ante el desarrollo de los diferentes
proyectos de generación hidrotérmicos y los
actuales problemas de capacidad de la red
de transmisión, resulta necesario evaluar los
reforzamientos del sistema de transmisión del
país, de acuerdo al crecimiento de la demanda y
el ingreso de los nuevos proyectos de generación.
CENACE con el fin de cumplir con su rol de
suministrar energía al país bajo las mejores
condiciones de economía y calidad, analizó, de
maner a conjunta con la empresa norteamericana
Quanta Technology, la factibilidad de incluir
en el sistema de transmisión, dispositivos de
respuesta rápida que garanticen la calidad y
continuidad del suministro eléctrico.
En este trabajo, a través de un análisis de
contingencias en estado estable, se realiza
la caracterización del Sistema Nacional
Interconectado para el año 2017, con lo que se
logra identificar las contingencias más críticas
para el sistema. Posteriormente, mediante un
análisis dinámico resulta posible categorizar
las contingencias asociadas con problemas de
estabilidad de voltaje. Estas contingencias son
evaluadas de forma individual para determinar
el requerimiento de compensación reactiva
dinámica en diferentes zonas del SNI.
Palabras clave— FACTS, Estabilidad de Voltaje,
SVC, DIgSILENT Power Factory, Sistema
Nacional Interconectado.
Abstract— Due to the development of different
hydrothermal generation projects and the current
problems related to the transmission network’s
capacity, it comes necessary to assess the national
transmission system’s reinforcements, according
to the demand growth and the start-up of new
generation projects. In order to fulfill its role
in supplying Ecuador’s electrical power with the
highest level of quality and cost-effectiveness,
CENACE, along with the North American
company Quanta Technology, studied the
feasibility of including fast-response devices, in
the transmission system, which guarantee quality
and continuity in the electrical power supply.
In this study, through a stable-state contingencies
analysis, a characterization of the National
Interconnected System for the year of 2017 is
made. This allows identifying the system’s most
critical contingencies. Later on, through a
dynamic analysis, it is possible to categorize the
contingencies associated with voltage stability
problems. Such contingencies are evaluated
individually in order to determine the dynamic
reactive compensation requirement in different
areas of the SNI.
Index Terms— FACTS, Voltage Stability, SVC,
DIgSILENT Power Factory, National System
1. INTRODUCCIÓN
La estabilidad de un sistema eléctrico de potencia
se puede definir como la propiedad que le permite
mantenerse en un estado de equilibrio operacional bajo
condiciones normales de operación y de regresar a un
estado aceptable de equilibrio tras sufrir una perturbación
[1]. Históricamente, la estabilidad transitoria se ha
considerado como el problema de estabilidad más
importante en la mayoría de los sistemas; sin embargo
con la evolución de los sistemas de potencia a través de
crecientes interconexiones, uso de nuevas tecnologías y
la operación en condiciones de alto estrés, han aparecido
diferentes formas de inestabilidad [2].
El presente trabajo tiene como objetivo fundamental
realizar una caracterización del SNI, identificando las
contingencias que puedan ocasionar un colapso total
o parcial en el sistema, considerando los proyectos de
expansión de transmisión y generación previstos hasta
el año 2017. Esto se logra a través de un análisis de
contingencias en estado estable.
Posteriormente, a través de simulaciones dinámicas,
se determina cuáles de estas contingencias se encuentran
asociadas con problemas de inestabilidad de voltaje.
Estas contingencias son evaluadas de forma individual
para evaluar la necesidad de incorporar dispositivos
de compensación reactiva de rápida actuación, que
garanticen la operación segura del Sistema Nacional
Interconectado. El dimensionamiento de los FACTS
(Flexible AC Transmission System) propuestos se
102
determina a través de una serie de simulaciones y
sensibilidades que permiten observar el comportamiento
de estos dispositivos en respuesta a diversas contingencias
en el SNI.
El estudio se realiza en base a las siguientes
consideraciones:
• Existencia de un SVC en la S/E Chorillos, que se
considera fuera de servicio en las simulaciones,
para determinar los requerimientos reales de
compensación reactiva en el SNI.
• Los LTCs de los transformadores no funcionan de
forma automática.
• Se asume una característica de control PV en
los generadores del SNI que cuentan con esta
capacidad de regulación en tiempo real.
• La barra slack corresponde al sistema colombiano
y se considera una conexión permanente entre
los sistemas eléctricos de Ecuador y Colombia.
Adicionalmente se considera en servicio el
Esquema de Separación de Áreas ESA.
• Las simulaciones se realizan bajo la premisa de
la operación del Sistema de Protección Sistémica
(SPS), la cual se estima estará en operación en el
año 2014, este esquema se encuentra diseñado
para evitar problemas de inestabilidad angular en
el SNI.
de elementos de transmisión. Este análisis requiere
examinar la respuesta no lineal del sistema durante
un período de tiempo lo suficientemente grande,
como para considerar el desempeño y la interacción
de motores, transformadores y los limitadores de
corriente de los generadores. Este período puede
extenderse desde unos pocos segundos hasta decenas
de minutos [2]. Considerando la complejidad del
modelo del sistema de potencia interconectado
Ecuador - Colombia, y la necesidad de abarcar todos
los casos que requieren ser analizados, en este estudio
se emplean tiempos de simulación de 10 segundos.
Uno de los temas de interés en el análisis de
estabilidad de voltaje corresponde al fenómeno de
recuperación lenta de voltaje por falla inducida,
FIDVR por sus siglas en inglés, en el cual se produce
una pérdida temporal del control de voltaje en un área.
Este evento ratifica la necesidad de contar con una
modelación especial de ciertas cargas en el sistema.
Es necesario indicar que la caída progresiva de
voltaje en las barras de un sistema puede, también,
estar coligada con la inestabilidad de ángulo de rotor
de las máquinas sincrónicas [1]. Y a su vez, algunos
de los problemas asociados con inestabilidad angular,
pueden ser fácilmente relacionados con problemas de
bajo voltaje en diferentes zonas del sistema.
2. ESTABILIDAD DE VOLTAJE
3. DISPOSITIVOS FACTS
La estabilidad de voltaje corresponde a la habilidad
de un sistema de potencia para mantener voltajes
estables en todas las barras del sistema luego de ser
sometido a una perturbación a partir de una condición
inicial dada [2]. Una condición de operación normal
corresponde al abastecimiento continuo de la demanda
de las cargas del sistema a través de la potencia de
las unidades de generación. De aquí, se establece
que, usualmente, las cargas son las causantes de la
inestabilidad de voltaje [3]. En este sentido, dentro
del desarrollo de este estudio, se ha considerado
necesario realizar la modelación de distintas cargas
especiales en el Sistema Eléctrico Ecuatoriano.
Los dispositivos de electrónica de potencia han
tenido un impacto revolucionario en los sistemas
eléctricos de potencia alrededor del mundo. La
disponibilidad y aplicación de los tiristores ha
permitido el nacimiento de dispositivos de rápida
actuación denominados
FACTS, utilizados en
operaciones de control [4].
La inestabilidad de voltaje puede ocasionar la
pérdida de carga en un área del sistema y el disparo de
líneas de transmisión por la actuación de sus sistemas
de protección inherentes, ocasionando con esto
eventos en cascada y la pérdida de sincronismo de
varios generadores. Cuando esta secuencia de eventos
en cascada conduce a un apagón en una o varias
partes del sistema, se habla de un colapso de voltaje.
El enfoque de este trabajo se centra en la estabilidad
de voltaje ante grandes perturbaciones, como pérdida
Una de las mayores causas de inestabilidad de
voltaje es el límite de potencia reactiva de un sistema
de potencia. Mejorando la capacidad de manejo de
potencia reactiva de un sistema a través de dispositivos
FACTS se puede prevenir la inestabilidad de voltaje y
por ende un eventual colapso de voltaje [5].
4. MODELAMIENTO DE CARGA
Un estudio de estabilidad de voltaje enfocado a la
aplicación de un controlador FACTS, típicamente,
requiere un modelado detallado de la carga. En este
tipo de estudios la carga es representada a través de
diferentes tipos como motores grandes y pequeños, la
corriente de excitación de transformadores y modelos
de carga estática.
103
El modelo utilizado por CENACE consiste
esencialmente en una carga de potencia constante.
Con el fin de representar de la mejor manera, tomando
en consideración las condiciones más críticas, se
realizaron sensibilidades incluyendo modelos de
potencia, impedancia y corriente constante. Los
resultados muestran solamente una mayor depresión
en el perfil de voltaje, mas no se evidencia un colapso
de voltaje, o la presencia de un evento FIDVR,
ocasionado por la absorción de corriente de grandes
motores durante contingencias.
Tabla 2: Contingencias Dobles Críticas
5. SIMULACIONES
Mediante el procedimiento indicado para determinar
los requerimientos de compensación reactiva
dinámica en el Sistema Nacional Interconectado, se
realizaron simulaciones en estado estable y dinámico
en el programa computacional DIgSILENT Power
Factory.
5.1. Simulaciones en Estado Estable
Las simulaciones se realizan considerando
escenarios de alta y baja hidrología para los períodos
de demandas: mínima, media y máxima, con el fin de
caracterizar al sistema eléctrico ecuatoriano. Dentro
de las simulaciones se incluyen contingencias simples
y dobles en todo el SNI. En las tablas siguientes se
indican las contingencias simples y dobles para las
cuales se presentan condiciones de no convergencia
en el sistema. Cabe indicar que las tablas presentan
también, dentro de la descripción, el aporte de la
evaluación dinámica, ya que al no obtener una
condición de convergencia en el flujo de potencia
en estado estable, no es posible realizar ninguna
evaluación.
5.2. Simulaciones en Estado Dinámico
A continuación se presentan los resultados de
las simulaciones dinámicas para las contingencias
que están relacionadas con problemas de voltaje.
La simulación incluye un corto circuito trifásico, el
despeje del mismo y la apertura del o los circuitos de
la línea de transmisión, según amerite el caso.
a) Salida de un circuito de la L/T Zhoray –
Sinincay 230 kV
Tabla 1: Contingencias Simples Críticas
En base a los resultados presentados en las
Tablas 1 y 2, se establece que tanto la contingencia
simple de la L/T Zhoray – Sinincay 230 kV como la
contingencia doble de la L/T Chorrillos – Refinería
del Pacífico deben ser sujetas a un análisis dinámico
particular. Para las demás contingencias, a través de
un análisis general, se establece que su tratamiento
está enmarcado en una actualización del SPS y de
un reforzamiento de la red eléctrica de la zona donde
estos circuitos están localizados.
Figura 1: Disparo de L/T Zhoray – Sinincay 230 kV
Esta contingencia produce bajos voltajes en la
subestación Sinincay 230 kV; sin embargo esto puede
ser solucionado con la conexión de elementos de
compensación mecánicos como capacitores. Además
se cree conveniente realizar un análisis del factor de
potencia de la carga asociada a esta barra.
104
b) Salida de los dos circuitos de la L/T Chorillos
– Refinería del Pacífico 230 kV
El caso de Refinería del Pacífico es especial, debido
a que en esta barra está prevista, para el año 2017, la
toma de aproximadamente 375 MW de carga. Además,
de acuerdo a información proporcionada por esta
entidad [6], tomando en consideración la sensibilidad
de los equipos instalados en la refinería que permiten la
realización de los procesos internos, se ha establecido
que los voltajes no pueden alcanzar valores por debajo
de 0,9 p.u. por más de 200 ms.
A continuación se presenta un gráfico, en el que se
puede observar la respuesta en el tiempo del voltaje en
las barras de la zona de Refinería del Pacífico, ante la
salida intempestiva de la L/T Chorrillos – Refinería del
Pacífico 230 kV.
El SVC propuesto contiene un TSC (Thyristor Switched
Capacitor) que puede ser conectado con un retardo de
20 ms y un TCR (Thyrstor Controlled Reactor) que será
empleado para proveer un control fino, no discreto, de
potencia reactiva. Cabe indicar que considerando el
elevado tiempo de conexión de los MSCs (Mechanical
Switched Capacitor), éstos no han sido considerados como
una opción aceptable.
La Tabla 3 muestra las alternativas estudiadas para
identificar la mejor opción en cuanto a la capacidad reactiva
inductiva, correspondiente al TCR, del dispositivo FACTS
propuesto.
Tabla 3: Sensibilidades del SVC propuesto en Refinería del
Pacífico
Se concluye a través de estos resultados, considerando la
observación de ciertas condiciones oscilatorias en algunos
casos, que la mejor alternativa consiste en la instalación de
un SVC de -100/250 MVAr.
Considerando la instalación de este SVC, la Fig. 3
muestra la respuesta del sistema ante la contingencia
doble de la línea de transmisión de 230 kV Chorrillos –
Refinería del Pacífico. Se puede observar que a través de
la compensación propuesta se logra mantener un perfil de
voltaje adecuado en la barra de Refinería del Pacífico.
Figura 2: Disparo de L/T Chorrillos – Refinería del Pacífico
230 kV
Como se puede observar, ante esta contingencia el
voltaje en la barra de Refinería del Pacífico, alcanza valores
por debajo de 0,9 p.u. (207 kV), por lo que, de acuerdo
a lo indicado anteriormente, se requiere algún tipo de
mecanismo de compensación que garantice la operación
segura de los equipos instalados en esta empresa.
c)
Localización y tamaño del SVC en Sistema
Nacional Interconectado
En base a los resultados anteriores y tomando en
consideración los requerimientos de suministro eléctrico de
la carga de Refinería del Pacífico se llevan a cabo una serie
de simulaciones que permitan determinar la compensación
reactiva requerida en esta barra. A través de este proceso
se establece la necesidad de instalar 250 MVAr de
compensación reactiva capacitiva en la barra de Refinería
del Pacífico.
Figura 3: Respuesta del sistema ante el disparo de L/T
Chorrillos – Refinería del Pacífico 230 kV con la instalación de
un SVC de -100/250 MVAr
Con el fin de observar el comportamiento del SVC, antes,
durante y después de la contingencia, se presenta en la Fig.
4 la respuesta dinámica de este dispositivo, incluyendo la
potencia reactiva de compensación, ángulo de disparo de
105
los tiristores y el número de capacitores conectados para
satisfacer los requerimientos de compensación reactiva.
Para todos estos casos se observó la operación
conjunta de los dos SVC, para lo cual se consideró
siempre la incorporación de un SVC de -100/250 en
Refinería del Pacífico y de -30/120 en Chorrillos.
Para los tres casos se concluye que la presencia de
estos dispositivos permite evitar el colapso por voltaje
de las zonas afectadas y el voltaje logra tener una
recuperación favorable.
6. CONCLUSIONES Y RECOMENDACIONES
De los análisis realizados se concluye la necesidad
de incorporar un SVC de -100/250 MVAr en la barra
de 230 kV de Refinería del Pacífico, considerando
la magnitud y las características de la carga de esta
subestación.
Figura 4: Respuesta del SVC ante el disparo de L/T Chorrillos
– Refinería del Pacífico 230 kV
Tomando en cuenta que CELEC EP
TRANSELECTRIC, ha previsto la instalación, para
el año 2017, de un SVC en la S/E Chorrillos de una
capacidad de -30/120 MVAr, se realizan simulaciones
adicionales con el fin de evidenciar la interacción
entre este equipo y el SVC propuesto para Refinería
del Pacífico. La Tabla 4 muestra la operación de los
dos SVCs, considerando la salida de la L/T ChorrillosRefinería del Pacífico 230 kV.
Tabla 4: Operación de los SVCs de Chorrillos y Refinería del
Pacífico ante la salida intempestiva de la L/T Chorrillos –
Refinería del Pacífico 230 kV
Con el fin de identificar las condiciones más críticas
para la operación del SNI, fueron considerados
diferentes modelos de carga; sin embargo, únicamente
se evidenció una mayor depresión en los perfiles
de voltaje y en ninguno de los casos se detectó la
presencia del efecto FIDVR, que se ve representado
por una caída de voltaje progresiva.
Considerando las características críticas y
especiales de la industria de refinación, para el área
de Refinería del Pacifico, se requiere la instalación de
un dispositivo de rápida actuación como un TSC; sin
embargo, con el fin de permitir un control de reactivos
más fino se recomienda la incorporación de un SVC.
De la tabla anterior se puede observar que los
voltajes post falla son aceptables y se establece que
con la operación de los dos SVCs, de Chorrillos
y Refinería del Pacífico, los voltajes en las zonas
afectadas, debido a severas contingencias en el
sistema, alcanzan una recuperación favorable.
Adicional a los resultados revisados hasta el
momento, se realizaron simulaciones para las mismas
condiciones, pero considerando la indisponibilidad de
los siguientes elementos:
• Central Trinitaria (133MW)
• L/T Chorrilos - Tisaleo 500kV
• L/T El Inga - Tisaleo de 500 kV.
Se prevé garantizar la seguridad del SNI, en el año
2017, a través de la aplicación conjunta del Sistema de
Protección Sistémica, SPS, y la incorporación de un
SVC, con el fin de solucionar problemas relacionados
con la estabilidad angular y la estabilidad de voltaje
respectivamente.
Desde una perspectiva del sistema, todas las
simulaciones realizadas indican que no es necesario
incluir un TCR para compensar el efecto de sobrepico
en el voltaje ocasionado por la conexión de un TSC.
Sin embargo si se requiere un control más fino del
voltaje se recomienda incluir en el SVC una parte
reactiva.
Con el fin de mejorar las condiciones operativas
en la zona de Refinería del Pacífico se recomienda
que, de manera conjunta con el ingreso de esta
planta, se promueva la implantación de una central
de generación. Esto permitirá también contar con una
fuente de compensación reactiva dinámica y además
una descongestión en elementos de transmisión
considerando la inyección de potencia activa en
la zona. De contar con el aporte de esta central de
106
generación, es necesario reevaluar los requerimientos
de potencia reactiva en esta barra.
[6] Quanta Technology, “Technical and economic
evaluations of FACTS, Final Report”, 01 de
Abril de 2013.
Los estudios realizados se encuentran fundados en
el ingreso de elementos de transmisión y centrales
de generación previstas para el año 2017, conforme
constan en los respectivos planes de expansión. Por
lo que de presentarse algún cambio importante, se
recomienda realizar una actualización de los mismos.
[7] Static VAR Compensation (SVC) Quanta
Technology, SIEMENS, North Carolina, 22 de
Febrero 2013.
[8] John E., “SVC Introduction. Presented to
Quanta Technology”, ABB FACTS North
America, North Carolina, 22 de Febrero 2013.
REFERENCIAS BIBLIOGRÁFICAS
[1] Kundur P., “Power System Stability and
Control”, McGraw – Hil, 1994.
[2] Kundur P., Paserba J., Ajjarapu V., et al.
(2004). “Definition and classification of power
system stability”, IEEE/CIGRE Joint Task
Force on Stability: Terms and Definitions.
IEEE Transactions on Power Systems, Vol. 19,
Pages: 1387-1401.
[3] Nguegan Y., “Real-time identification and
monitoring of the voltage stability margin in
electric power transmission systems using
synchronized phasor measurements”, Tesis
doctoral, Kassel University, 2009.
[4] Das T., Jetti S., Venayagamoorthy G.,
“Optimal Design of a SVC Controller Using
a Small Population Based PSO”, Real-Time
Power and Intelligent Systems Laboratory,
University of Missouri- Rolla.
[5] Kamarposhti M., Alinezhad M., “Comparison
of SVC and STATCOM in Static Voltage
Stability Margin Enhancement”, International
Journal of Electrical and Electronics
Engineering 4.5, 2010.
Fernando Chamorro Chulde.Nació en Quito, en 1973. Recibió
su título de Ingeniero Eléctrico de
la “Escuela Politécnica Nacional”
en 1999. Egresado de la Maestría
en Ciencias de Ingeniería Eléctrica
de la “Escuela Politécnica
Nacional”.
Trabajó
como
ingeniero
de
diseño
para
DYCONEL. Actualmente se desempeña como
Ingeniero de Operaciones en el Centro de Control del
CENACE. Su principal área de interés es la
Optimización de la Operación del Sistema Nacional
Interconectado.
Pablo Verdugo Rivadeneira.Nació en la ciudad de Quito en
1987.
Realizó sus estudios
secundarios en el Colegio
Nacional Experimental Juan Pío
Montufar y sus estudios superiores
en la Escuela Politécnica Nacional,
donde se gradúo de Ingeniero
Eléctrico en el año 2012. Actualmente trabaja en la
Dirección de Planeamiento del Centro Nacional de
Control de Energía..
107
Formulación de una Arquitectura Técnica Funcional y Despliegue de una
Prueba de Concepto para mejorar la Supervisión, Operación y Análisis
Post-Operativo del Sistema Nacional Interconectado
J. C. Vallecilla†
H. Ortiz‡
† Centro Nacional de Control de Energía, CENACE
‡ Escuela Politécnica del Ejército - ESPE
Resumen— Actualmente el sistema EMS
del CENACE no dispone de información en
tiempo real proveniente de la mayoría de los
generadores comprendidos entre 1 y 5 MW,
debido a que estas centrales no cuentan con
equipos asociados como UTRs o gateways que
permitan el envío de información, ni de canales
dedicados de comunicaciones hasta alguno de los
concentradores remotos (FE) del CENACE.
A fin de incorporar esta información al sistema
EMS, se diseña una arquitectura de adquisición
de datos que permita disponer de esta información
en tiempo real utilizando los medidores de energía
instalados en estos generadores y como medios de
comunicación el Internet y/o canales ya existentes
con el CENACE, permitiendo así mejorar los
procesos de supervisión y operación en tiempo
real al igual que los procesos post operativos del
SNI.
Palabras
clave—
Gateway,
medidores,
generadores, enlaces WAN, Internet, protocolos
de comunicaciones.
Abstract— The CENACE’s Energy Management
System - EMS currently does not have real-time
information from the majority of generators from
1 to 5 MW, given that such power stations are
not equipped with RTUs or Gateways that send
this type of information, through a dedicated
communication channel to one of the CENACE’s
remote concentrators (FE).
In order to include such information in the EMS, a
data acquisition architecture was designed which
makes having this type of information possible
in real-time by using energy meters installed on
these generators and using the Internet and/or
current channels as a communication medium
with CENACE, thus improving the real-time
supervision and operations processes as well as the
SNI post-operative processes.
Index Terms— Gateway, Meters, Generators,
WAN links, Internet, Communications Protocol.
1. INTRODUCCIÓN
El Sistema Nacional Interconectado del Ecuador (SNI)
tuvo, a finales del año 2012, una demanda aproximada
de 3200 MW, 42 subestaciones de transmisión, 18
empresas de distribución, 84 centrales de generación
y 3000 km. de líneas de transmisión, siendo el Centro
Nacional de Control de Energía (CENACE) el encargado
de la coordinación y operación del SNI al igual que la
administración de las transacciones técnicas y financieras
del Mercado Eléctrico Mayorista (MEM) del Ecuador,
para lo cual cuenta con varios sistemas que permiten el
cumplimiento de estas funciones.
Para la operación en tiempo real del SNI, el CENACE
cuenta con un sistema para la Administración de Energía
(Energy Managment System - EMS), provisto por
la empresa Ventyx ABB, cuyo nombre comercial es
Network Manager, el cual recopila, procesa y administra
la información proveniente de las subestaciones,
centrales de generación y distribuidoras de todo el país,
información que es enviada desde Unidades Terminales
Remotas (UTRs), gateways o sistemas SCADA,
utilizando canales dedicados hacia los cuatro servidores
de comunicaciones de tipo Front End (F.E.) remotos,
distribuidos geográficamente en Quito, Guayaquil,
Quevedo y Zhoray. La transmisión se realiza a través de
cualquiera de los tres protocolos seriales disponibles en
estos equipos: DNP3.0, IEC 870-5-101 y RP 570.
Actualmente el CENACE no cuenta con la información
en tiempo real de los generadores comprendidos entre 1
y 5 MW, razón por la cual estos datos son registrados
manualmente por los operadores, de acuerdo a un horario
preestablecido y utilizando para el efecto llamadas
telefónicas o correo electrónico, situación que provoca
los siguientes perjuicios:
108
• Tiempo subutilizado por los operadores de las
centrales de generación y del CENACE, durante
el ingreso horario de esta información.
• Desconcentración de los operadores del
CENACE en la supervisión del SNI, debido a la
atención que deben dedicar a la tarea de registro
manual de datos en el sistema.
• Posibles errores en la digitación de la información
ingresada por los Operadores del CENACE.
• Posibles errores en la entrega de información al
CENACE por parte de los Agentes Generadores.
• En caso de presentarse una falla eléctrica en
el SNI, estas llamadas resultan inoportunas ya
que el operador requiere el recurso telefónico y
concentración, a fin de restablecer y normalizar el
sistema eléctrico de potencia.
• Falta visibilidad en tiempo real de un número
importante de centrales entre 1 – 5 MW.
La arquitectura planteada en este trabajo otorgaría
viabilidad para complementar la Regulación 005-08,
relativa a “La Entrega de Información”, permitiendo
incorporar la información de nuevas centrales de
generación comprendidas entre 1-5 MW al sistema EMS
del CENACE
El planteamiento no solo resuelve una necesidad
actual, sino que también tiene una perspectiva de
futuro, ya que a través de esta arquitectura sería posible
incorporar al centro de control de CENACE, varios
proyectos de pequeñas centrales de tipo Hidroeléctricas,
Eólicas, Solar, etc. las cuales se encuentran en el rango de
potencia instalada entre 1-5 MW.
datos, obtenidos del sistema ECS para entrenamiento
de los operadores del CENACE, conforme el diagrama
de red de la Fig. 1.
Figura 1: Diagrama de red sistema EMS CENACE [4]
2.2. Front Ends Remotos
La adquisición de datos del sistema EMS del
CENACE, está compuesta por cuatro Front Ends
remotos distribuidos en puntos estratégicos del país,
los cuales disponen de un anillo de fibra óptica para
la comunicación con el sistema central, sobre la
infraestructura de Fibra Óptica de Transelectric como
se muestra en la Fig. 2.
2. MARCO CONCEPTUAL
Para la incorporación de la información proveniente
de los medidores de energía, instalados en las centrales
de generación al sistema EMS del CENACE, se
plantea colocar un equipo Gateway que permita la
adquisición de la información desde los medidores,
ya sea en protocolo DNP3.0 sobre TCP/IP o Modbus
sobre TCP/IP y reenvíe esta información al sistema
EMS del CENACE.
2.1. Sistema EMS CENACE
El sistema EMS se encuentra conformado por:
los sub sistemas Energy Control System (ECS), que
adquiere, procesa y almacena la información enviada
desde los equipos SCADA, Gateways y UTRs,
instalados en campo; el sistema Program Development
Sysytem (PDS) que permite realizar el mantenimiento,
modelación, actualización y pruebas de aplicaciones del
sistema EMS antes de ser puestas en funcionamiento;
y, el sistema Dispacher Training Simulator (DTS) que
permite crear ambientes de simulaciones en base a
Figura 2: Diagrama de comunicaciones F. E. CENACE
Para comunicarse desde los Front End Remotos con
las RTU o gateways instalados en las generadoras y
subestaciones del SNI, se utilizan canales dedicados
mediante los protocolos de comunicaciones seriales
disponibles en los F. E. que son el IEC 870-5-101,
DNP3.0 y RP 570 conforme se muestra en la Fig. 3.
Esta información es recibida por los servidores de
adquisición de datos del sistema EMS, denominados
RDAS (Ranger Data Acquisition Server).
109
3. LEVANTAMIENTO DE INFORMACIÓN
3.1. Levantamiento de información
Centrales de Generación
de
las
Tomando como base los medidores disponibles
en el Sistema de Medición Comercial y el archivo
en el que los operadores realizan el ingreso manual
de información de forma horaria, correspondiente
a las generadoras de las que no se dispone
información en el sistema EMS, se tienen el listado
de generadores mostrados en las Tablas 1 a la 7 y la
Fig. 5, correspondientes a centrales que conformarían
el grupo de generación entre 1 a 5 MW. Las tablas
contienen el nombre de la central, ubicación
geográfica, potencia instalada, tipo de generación
de la central, medio de comunicación y el protocolo
que utiliza el medidor para el envío de información al
Gateway del CENACE.
Tabla 1: Centrales de Generación Empresa Eléctrica
Emelnorte
Figura 3: Esquema de comunicaciones con los F. E. CENACE
2.3. Medidores de Energía
Tabla 2: Centrales de Generación Empresa Eléctrica Quito
Estos equipos se encuentran instalados en las
centrales de generación y almacenan la información
de manera cuarto horaria, para ser posteriormente
adquirida y procesada por el Sistema de Medición
Comercial (SIMEC) y utilizada para la liquidación
comercial de las empresas generadoras. El esquema
de comunicaciones utilizado por este sistema, para
la conexión con los medidores, puede ser mediante
Internet o enlaces WAN dedicados entre el CENACE
y las empresas de la CELEC EP, EEQ o Transelectric
como se indica en la Fig. 4.
Figura 4:Esquema de comunicaciones SIMEC
110
Tabla 3: Centrales de Generación CELEC Esmeraldas
• La central Miraflores tiene distribuidos en
distintos puntos geográficos 10 unidades de
generación de 2MW.
• Se tiene un total de 10 medidores que se conectan
mediante Internet.
• Se tiene 2 medidores que se conectan mediante la
red WAN de la EEQ.
• Se tiene 9 medidores que se conectan mediante la
red WAN de la CELEC.
• La potencia efectiva total de estas centrales es de
60,9 MW.
• Todos los medidores disponen del protocolo de
comunicaciones DNP 3 sobre TCP/IP.
Tabla 4: Centrales de Generación Empresa Eléctrica
Riobamba
Tabla 5: Centrales de Generación Empresa Eléctrica Ambato
3.2. Levantamiento de información del proceso de
supervisión
Tabla 6: Centrales de Generación Empresa Eléctrica Cotopaxi
El CENACE cuenta con tres consolas para los
procesos de supervisión y control del SNI: la consola
de supervisión encargada del re-despacho y la
supervisión de las conexiones internacionales con
Colombia y Perú; la consola de generación encargada
de supervisar toda la generación del SNI; y, la consola
Transmisión encargada de supervisar las S/E y líneas
de trasmisión del SNI, funciones que realizan las 24
horas de día, 7 días a la semana los 365 días del año.
A fin de complementar la información que no
se dispone en el sistema EMS del CENACE, los
operadores realizan el ingreso manual de manera
horaria. Para esto se tiene creadas plantillas las
cuales corresponden a un desarrollo realizado por la
Dirección de Operaciones, permitiendo ingresar esta
información a la BD historiador sin pasar por la BD
SNAPSHOT o de tiempo real conforme la Fig. 6,
teniendo un tiempo estimado de 15 minutos desde el
inicio de cada hora hasta el final de esta actividad,
la misma que se describe conforme el diagrama de
proceso de la Fig. 7.
Figura 5: Distribución de medidores en el Ecuador
Del levantamiento realizado, se desprende lo
siguiente:
• Se tiene un total de 11 Centrales de Generación.
• Se dispone de 6 centrales de generación
hidráulica y 5 centrales de generación térmica.
• Todos los medidores instalados en estas centrales
son de una misma marca.
111
Figura 6: Almacenamiento – HIS [3]
considerables para estas pequeñas centrales de
generación y tomando en cuenta que la regulación
del CONELEC 005/08 no indica el esquema para la
adquisición de datos de la generación menor a 5 MW,
se plantea incorporar esta información al sistema
de tiempo real, mediante el aprovechamiento del
equipamiento de medición comercial ya instalado en
estas centrales de generación, el cual permite enviar
la información en tiempo real mediante el protocolo
DNP3.0 sobre TCP/IP, sobre el puerto Ethernet que
utiliza el sistema de medición comercial, tomando
como primicia que estos equipos ya cuentan con un
medio de comunicación hasta el CENACE.
Figura 7: Diagrama de proceso recolección de datos
En función de que el operador tiene que estar
ejecutando esta actividad cada hora, y tomando en
cuenta que esta toma aproximadamente 15 minutos,
al cabo de 1 día se tendría 6 horas para esta actividad,
en un mes se tendría 186 horas y en un año se
requeriría aproximadamente 2190 horas o 91.25 días
por persona para el ingreso de información al sistema
EMS del CENACE.
Los servidores denominados RDAS (Ranger
Data Adquisition Server) son los encargados de la
adquisición de datos del sistema central, el cual
cuenta con 8 puertos seriales que pueden manejar
los protocolos DNP 3.0, RP-570 e ICE 870-5-101.
Para la incorporación de información al sistema
EMS de los medidores instalados en las centrales de
generación, se lo realizará mediante un equipo que
funcione como Gateway, el cual se comunicará con
los servidores RDAS mediante uno de los puertos
seriales disponibles y con los medidores utilizando el
protocolo DNP 3.0 sobre TCP/IP o Modbus conforme
la Fig. 8.
3.3. Levantamiento de información del proceso
Post Operativo
El área Post Operativa coteja la información de
los datos ingresados de forma horaria por parte
de los operadores, con datos que son enviados
posteriormente por parte de los agentes, a fin de validar
tiempos de ingresos y cuantificar la generación de las
centrales de manera horaria; sin embargo, el tiempo
de este proceso de validación puede aumentar de
manera considerable, ya que se puede tener errores en
el proceso de digitación por parte de los operadores,
escuchar mal un dato enviado telefónicamente o
los operadores de las centrales pueden visualizar
o entregar de forma errónea la información de
generación, lo cual involucra mayores tiempos hasta
poder validar y encontrar los posibles errores en la
información.
4. DISEÑO DE LA ARQUITECTURA DE DATOS
Debido a que las pequeñas centrales de generación
no disponen de equipos como gateways o UTRs, para
la recolección de información ni de canales dedicados
que permita la comunicación con los F. E. remotos del
CENACE, lo cual involucraría inversiones económicas
Figura 8: Diagrama de la Arquitectura Planteada
5. DEFINICIÓN
CONCEPTO
DE
LA
PRUEBA
DE
En función de la arquitectura planteada y a fin de
tener una adecuada mejora en el proceso que se ejecuta
de manera horaria, para la toma de datos por parte de
los operadores del CENACE, para la definición de la
prueba de concepto se escogió todos los medidores
que se conectan por medio de las redes WAN de la
CELEC y EEQ, las mismas que corresponden a las
centrales de generación de la Empresa Eléctrica Quito
112
y CELEC-EP TERMOESMERALDAS y todos los
medidores publicados al Internet. Adicionalmente a las
centrales levantadas en las tablas 1 - 6 correspondiente
a la generación entre 1 y 5 MW, también se considera
la incorporación del medidor instalado en la S/E móvil
colocada en Quininde, a fin de disponer de la supervisión
de esta posición en el SNI.
Tabla 7: Centrales y S/E prueba de concepto
el caso del medidor instalado en la móvil de la S/E
Quinindé, este equipo disponía de un extensor que
permite ingresar señales digitales, con lo cual se tiene
datos de seccionadores y alarmas de esta S/E.
6.2. Configuración Firewall
Conforme la arquitectura planteada, el Gateway
se encuentra instalado en la infraestructura de Data
Center del CENACE y a fin de que este equipo tenga
la seguridad necesaria para la publicación al Internet,
esta se la realiza mediante el Firewall de Data Center,
apresurándose los puertos: 20000 para la conexión con
los medidores en el protocolo DNP3 sobre TCP/IP, el
puerto 502 para la conexión en el protocolo Modbus
sobre TCP/IP y el protocolo ICMP para pruebas de
conectividad con los equipos.
Adicionalmente, este firewall presta seguridad
para las conexiones provenientes de los medidores
que se encuentran en las redes WAN de la CELEC –
Transelectric y de la Empresa Eléctrica Quito.
6.3. Configuración del Gateway
El CENACE cuenta con un Gateway que permite la
configuración del protocolo DNP3.0 en modo master,
para la comunicación con los medidores y modo
esclavo para la comunicación con el sistema EMS.
6. CONFIGURACIÓN Y PUESTA EN MARCHA
DE LA PRUEBA DE CONCEPTO
6.1. Configuración Medidores
Para la configuración de los medidores se utiliza
el programa ION Setup V3.0, el cual permite la
conexión con los medidores mediante el puerto 7700,
para la configuración de los distintos parámetros del
medidor.
Una vez ingresado al medidor en la sección de
comunicaciones se dispone de una pestaña para
configuración del protocolo DNP 3.0, en el cual se
ingresa los datos requeridos que son la IP del Master,
el ID que va a tener el equipo y la configuración del
tipo de datos analógico que se va a utilizar.
Para la configuración del Gateway con los
medidores se requiere el ID, la dirección IP y los
números de los registros que se van a leer del medidor.
Esta configuración es ingresada en el driver DNP3.0
master el cual se asocia a la tarjeta de red del equipo.
Adicionalmente se programó para que realice el
polling de los datos cada 4 segundos.
Para la configuración con el sistema se determinan
los parámetros del puerto RS232, se ingresa el ID con
el cual va a preguntar el sistema, y se crea todos los
TAGS analógicos y digitales que serán enviados al
EMS del CENACE. Esta configuración es ingresada
en el driver DNP3.0 slave y se la asocia al puerto RS232 del equipo.
Adicionalmente, para el paso de información del
driver, que recolecta la información de los medidores
al driver, que entrega la información al sistema, se
realiza una programación en Ladder la que es similar
a la que se realiza en Visual Basic.
De estos equipos se está obteniendo las señales
de Potencia activa, reactiva, frecuencia y voltaje. En
113
6.4. Configuración del Sistema
El equipo Gateway se conecta directo a un puerto
serial de los servidores (RDAS), para lo cual se
configura en el sistema el puerto en función de lo
colocado en el driver de DNP3.0 slave y generándose
una base de datos con un total de 92 señales analógicas
y 23 señales digitales correspondiente a las 13 centrales
de generación y a la S/E Quinindé. Adicionalmente,
se elaboró los respectivos despliegues que permita
utilizar esta información por parte de los operadores
de sala de control del CENACE.
Esta información al ser parte del sistema, es
historizada en los servidores HIS del sistema.
7. VALIDACIÓN Y PRUEBAS
7.1. Conexión con los medidores y tiempos de
respuesta
Mediante esta variable se programó en ladder una
alarma, que permite indicar al sistema EMS si existe
algún problema de conexión con el medidor y por
ende si el dato es válido o no como se indica en la
Fig. 11; sin embargo, debido a los posibles problemas
que puede ocasionarse en el medio de transmisión, ya
que es posible que se presenten intermitencias, para
declarar a un medidor “fallado” debe pasar la variable
con un valor negativo durante 6 segundos, para lo
cual se realiza una programación adicional en ladder.
Con esto se evita tener una intermitencia en la alarma
de comunicaciones del equipo que es desplegada en
el sistema EMS.
En función de los resultados, el medidor de la
Central San Miguel de Car, que se encuentra publicado
al Internet, tiene la mayor latencia con un tiempo
de 719ms. Sin embargo a pesar de esto se tiene una
respuesta adecuada en la actualización de los datos
en el equipo Gateway y sistema EMS del CENACE.
A fin de validar si existe conectividad desde el
Gateway hasta los medidores, el equipo tiene un
driver que permite enviar un paquete icmp hacia
los medidores y el retardo del tiempo generado es
almacenado en mili segundos en una variable como
se muestra en la Fig. 9, en caso de que no se tenga
respuesta desde el medidor el equipo regresa un valor
negativo de la variable como se muestra en la Fig. 10.
Figura 11: Indicación problemas de transmisión de datos
7.2. Validación de datos provenientes del campo
Figura 9: Respuesta de Ping
Figura10: Respuesta negativa de Ping
Para la contrastación de información se realizó la
validación mediante la aplicación ION Setup 3.0,
que permite visualizar en tiempo real la información
del medidor, comparándola con la información
que se dispone en ese instante en el sistema EMS
del CENACE, de cada una de las variables que es
obtenida por cada medidor. Otra forma de contrastar
la información es comparando la información que
despliega los medidores vía WEB con lo que se
114
dispone en ese instante en el sistema.
• Mediante la incorporación de estos datos se
evita errores que se podría tener, debido a una
mala lectura de la información desde el campo
por parte de los operadores de las centrales o en
la digitación de los datos al realizar el ingreso
manual de los datos al sistema por parte del
Operadores del CENACE.
• Se tiene mayor concentración por parte de los
operadores del CENACE para la operación y
supervisión del sistema, al evitar la acción de
ingresar los datos de manera horaria.
• Se evitan interrupciones durante la ejecución
de maniobras en el SNI, especialmente durante
emergencias o restablecimiento ante fallas
presentadas en el SNI, al no tener interrupciones
de llamadas telefónicas generadas por parte de
los operadores de las centrales, para la entrega
de información de manera horaria.
• Se optimiza los tiempos del proceso post
operativo, al contar con una fuente de
información confiable, evitando demoras por
posibles errores de la información ingresada
manualmente.
• Por otra parte se recomienda:
• Utilizar la arquitectura planteada para el
ingreso de futuras centrales de generación
entre 1 y 5 MW al sistema EMS del CENACE,
en especial las centrales no convencionales
como pueden ser eólicas o solares.
• Complementar la regulación del CONELEC
005/08 referente a la entrega de información al
CENACE para las centrales menores a 5 MW.
• Utilizar este equipo para la integración,
presentación y envío de información al
Sistema EMS del CENACE de otro tipo de
información como puede ser el proyecto de
Eficiencia Energética y Energías Renovables
que se está llevando a cabo en el CENACE.
Una vez validada la correspondencia de todos los
valores entre el medidor y el sistema, se puede utilizar
esta información para la operación y supervisión, la
misma que está contenida en un despliegue tabular
creado en el sistema conforme la Fig. 12.
Figura 12: Despliegue en el sistema EMS de las Centrales de
Generación 1-5 MW
8. CONCLUSIONES Y RECOMENDACIONES
La arquitectura planteada permite realizar la
adquisición en tiempo real de las centrales de
generación menor a 5MW, utilizando los medidores
de energía ION del sistema de Medición Comercial
del CENACE.
Con la incorporación de esta información en
tiempo real al sistema EMS del CENACE, se tiene
los siguientes beneficios en la operación y supervisión
del SNI:
• Reducción del tiempo asignado al ingreso
manual de datos de forma horaria,
correspondiente a las centrales de generación
entre 1 – 5 MW.
• Se mejora la supervisión en tiempo real del
sistema ya que mediante esta arquitectura
se incorpora aproximadamente 60,9 MW al
sistema EMS del CENACE.
• Se optimiza el consumo de recurso telefónico
por parte de las centrales de generación, al
evitar llamadas al CENACE para entregar los
datos de generación vía telefónica o envío de
correos electrónicos de manera horaria.
• Se optimiza el consumo de recurso telefónico
por parte de los Operadores del CENACE,
al evitar realizar llamadas a las centrales de
generación, para la recolección de datos vía
telefónica de manera horaria.
REFERENCIAS BIBLIOGRÁFICAS
115
[1] Burton J. (2012) TWinSoft & Tbox Trainning
[2] ABB. (Febrero de 2011). DNP3 Communication
Protocol Manual. Obtenido de http://www05.
abb.com/global/scot/scot354.nsf/veritydispl
ay/5b0552a1511e3d9ac125783a004549d7/$
file/1mrk511241-uen_-_en_communication_
protocol_manual__dnp___650_series__iec.
pdf
[3] Cubillo, R., & Barba, R. (2009).
SISTEMA PARA LA ADQUISICIÓN Y
PROCESAMIENTO DE DATOS PARA EL
ANÁLISIS DE LA OPERACIÓN DEL S.N.I.
A PARTIR DE LA APLICACIÓN PI DEL
SISTEMA NETWORK MANAGER. Revista
Energía CENACE
[4] Vallecilla, J. C. (2006). INSTALACIÓN,
PRUEBAS Y MANTENIMIENTO DEL
SISTEMA DE ADQUISICIÓN DE DATOS
eLAN PARA EL MONITOREO Y CONTROL
DEL CENTRO NACIONAL DE CONTROL
DE ENERGÍA (CENACE). QUITO.
[5] Schneider Electric. (2006) TECHNICAL
NOTE Multiport DNP 3.0 and ION Technology
Actualmente se desempeña como Ingeniero de
Telecomunicaciones en la Dirección de Sistemas de
Información. Sus áreas de interés se relacionan con
los protocolos de transmisión SCADA y redes de
comunicaciones.
Hugo Ortiz Tulcán.- Nació en Quito en
1965. Recibió su título de Ingeniero en
Electrónica y Control en la Escuela
Politécnica Nacional en 1990. Su
formación de postgrado incluye una
especialidad en Control Automático en
la Universidad de Tel Aviv y una
Maestría en Gestión de la Productividad
en la Escuela Politécnica del Ejército. Sus áreas de interés
están relacionadas con la Innovación Tecnológica, la
Automática y los Sistemas de Gestión.
Juan Carlos Vallecilla Mosquera.Nació en Quito, Ecuador en 1981.
Recibió su título de Ingeniero
Electrónico de la Escuela Politécnica
del Ejército en el 2006. Egresado de la
Maestría en Redes de Información y
Conectividad de la Escuela Politécnica
del Ejército en 2008.
116
Información Operativa en Dispositivos Móviles
C. Del Hierro
R. Sánchez
Centro Nacional de Control de Energía, CENACE
Resumen— El avance tecnológico en dispositivos
móviles, se han convertido en una herramienta
importante para desplegar información tanto a
nivel gerencial y operativo.
El presente articulo describirá la implementación
de los sistemas IODM (Información Operativa en
Dispositivos Móviles) en la corporación CENACE
y algunas aplicaciones web como parte de la
iniciativa de observar información operativa en
cuasi tiempo real de mediciones e indicaciones
del Sistema Nacional Interconectado con una
frecuencia de actualización de 5 segundos; y en
el caso de datos provenientes de los PMUs en una
frecuencia de 1 segundo para dispositivos móviles
a través de internet.
Palabras clave— IODM (Información Operativa
en Dispositivos Móviles), Adquisición de Datos, PI
(Plant Information), interfaces, Scalable Vector
Graphics SVG, HTML5.
Abstract— Recent technological advances in mobile
devices have turned them into important tools for
displaying information at both management and
operational levels.
This article will describe the implementation
of OIMD (Operating Information on Mobile
Devices) systems in CENACE as well as some web
applications as part of an initiative to observe
operative information (measurements and signals
in the National Interconnected System), in mobile
devices over the internet, in quasi-real time with an
updating frequency of 5 seconds, and 1 second for
data coming from PMUs.
Index Terms— OIMD (Operative Information
on Mobile Devices), Data Acquisition, PI (Plant
Information), Interfaces, Scalable Vector Graphics
SVC, HTML5.
1. INTRODUCCIÓN
El objetivo de este artículo es presentar el proceso de
implementación del sistema de información operativa y
gerencial en dispositivos móviles el cual tiene cubierto el
siguiente alcance de presentación:
• Nivel de información estratégica gerencial; en
la cual la disponibilidad de esta información
en dispositivos móviles facilitará la toma de
decisiones concernientes a los ámbitos tácticos de
responsabilidad del CENACE
• Nivel de información estratégica operativa; en
la cual la disponibilidad de esta información
en dispositivos móviles facilitará la toma de
decisiones operativas en el sistema eléctrico
ecuatoriano.
2. DESCRIPCIÓN DE LOS SERVICIOS
DE INFORMACIÓN EN DISPOSITIVOS
MÓVILES PARA EL CENACE
2.1. Adquisición de datos
La adquisición de datos para los servicios de
Información en Dispositivos Móviles se lo realiza a través
de las arquitecturas existentes para los sistemas: “Energy
Managment System” (EMS) y “Wide Area Monitoring
System” (WAMS) del CENACE. Para el primer caso se
lo realiza a través de las Unidades Terminales Remotas
(UTRs); y para el segundo caso a través de las Unidades
de Medición Fasorial (PMUs).
A través de los sistemas EMS y WAMS, se realiza
la adquisición de datos de: las variables eléctricas
(voltajes, frecuencia, potencia, etc.), estados de
equipos (seccionadores, interruptores, alarmas de
transformadores, etc.) y las mediciones fasoriales de las
variables eléctricas del Sistema Nacional Interconectado
(SNI).
117
Cada sistema tiene una arquitectura de adquisición de
datos diferente; para el caso del SCADA del EMS, la Fig.
1 muestra la conexión de las UTRs a los 4 Front Ends
(concentradores de datos) ubicados estratégicamente
en el país, de manera que se logra una arquitectura de
comunicaciones distribuida. Los 4 Front Ends permiten
la integración de los datos de provenientes de las UTRs
con los centros de control de CENACE y CELEC EP
TRANSELECTRIC.
Una de las capacidades de esta infraestructura es la
integración y la consulta de datos históricos y/o en tiempo
real de diferentes fuentes de información.
Figura 3 : Esquema de conexiones de la Plataforma PI
corporativa
En la fig. 3, se observa la conexión que tiene la
plataforma PI con el sistema EMS y WAMS. En el caso
de la integración de información 1 del EMS, la conexión
se da a través de los servidores PI (HIS) del EMS y los PI
servers corporativos.
Figura 1 : Sistema de Adquisición de Datos del S.N.I
Para el caso de WAMS, en la Fig. 2 se muestra la
ubicación de los diferentes PMUs existentes en el S. N. I.
Cada PMU se conecta al Phasor Data Concentrator
(PDC) y al servidor de interfaces de PI del CENACE.
Debido a la necesidad de alta disponibilidad de
datos de los PMUs, la configuración de la red de estos
dispositivos es tipo anillo.
Para el caso de WAMS, la conexión se la realiza a través
del servidor de interfaces (PI-Interfaces), donde se utiliza
la interfaz PI - IEEE C37.118 para la comunicación con
los PMUs, luego los datos recopilados son almacenados
en el PI server de WAMS.
En consecuencia, a través de los servidores PI se
puede compartir y/o integrar la información de distintas
fuentes, de manera que otras plataformas de desarrollo
puedan usar la información integrada para mostrarla en
dispositivos móviles.
2.3. Servicios de Información implementados
La Dirección de Sistemas de Información del
CENACE realizó la implementación de los siguientes
sistemas de información para celulares:
• Roambi: Muestra información histórica,
estadística de los procesos corporativos.
• Visual KPI - Transpara2: Muestra los Indicadores
Clave de Desempeño (KPI) estratégicos de la
corporación.
• IODM - Peep3 : Permite visualizar en tiempo real
información operativa del SCADA-EMS.
Figura 2 : Conexiones de PMUs en el S.N.I.
2.2. Integración de la información
Los datos provenientes tanto a través del EMS, como
de WAMS son integrados a través de la plataforma
corporativa PI (Plant Information1) del CENACE.
1 El sistema PI es una infraestructura operativa, de evento y administración
de datos en tiempo real.
2 Visual KPI es el producto principal de Transpara. Es una aplicación de
software empresarial diseñado para BI móvil, control de operaciones,
cuadros de mando y alerta.
3 Peep es una plataforma para la visualización dinámica de vectores gráficos,
alimentados por información en tiempo real, desde dispositivos móviles.
118
•
WAMS Apps: Monitoreo en tiempo real de la
información fasorial, a través de la interfaz PI IEEE C37.118.
Motivo de análisis para este artículo son aquellos
relacionados con la publicación de información operativa
del S.N.I a través de: Peep – IODM, Visual KPI, WAMS
Apps.
3. INFORMACIÓN
OPERATIVA
DISPOSITIVOS MÓVILES
EN
Como se menciona en 2.3, los sistemas de interés para
este artículo son: Visual KPI-Transpara, WAMS Apps,
IODM-Peep.
3.1. Visual KPI
Muestra los Indicadores Clave de Desempeño (KPI)
estratégicos de la corporación.
Los indicadores al momento implementados en el
sistema, son aquellos relacionados con: Nivel de embalse
y caudal de las centrales hidroeléctricas, voltaje en barra
de las Subestaciones del S.N.I, y frecuencia del sistema.
Una señal proveniente de campo se convierte en un
indicador cuando se le establece límites operativos, así
por ejemplo:
Tabla 1 : Diseño de un KPI
Figura 4 : Presentación de los KPIs en Visual KPI
Para el caso de aquellos indicadores KPI a los cuales
se le puede asignar una referencia geográfica, es válido
también obsérvalos en un geo-mapa. La fig. 5, muestra el
ejemplo de visualización de los KPIs relacionados con el
perfil de voltaje en el país.
Un color identificativo de la zona en la que se encuentra
la medición permitirá a quien visualice la información,
una rápida detección de aquellos indicadores que están
fuera del rango normal. El código de colores adoptado
por CENACE para los indicadores del sistema Visual
KPI es mostrado en la tabla 1.
Cada KPI tiene su particularidad. En el sistema: se
analiza el KPI a implementar, se le asigna los límites
relativos, se le asocia a la categoría a la que pertenece
y finalmente se establece la identidad (punto de medida
- tag) con la que se va a conectar al PI corporativo. Las
definiciones mencionadas por cada KPI permiten la
visualización los KPIs, la fig. 4 muestra ejemplos de la
visualización de los KPIs.
Figura 5 : Visualización de KPIs referenciados
Geográficamente
El sólo hecho de poder observar los KPIs agrupados
permite al usuario identificar la categoría que requiere de
análisis, y a través del menú, el usuario puede ingresar a
observar un histórico del elemento de análisis. El usuario
tiene la posibilidad de observar el indicador de interés
en diferentes periodos de tiempo. La fig. 6 muestra el
119
KPI asociado a la medición de voltaje en barra de la
subestación Orellana.
• Zona Santo Domingo Quevedo
• Central Villonaco
En cada uno de estos se puede visualizar información
en cuasi tiempo real de las variables de voltaje potencia
activa y reactiva por las líneas y voltajes de barra como
también la posición de interruptores en las distintas
subestaciones de Sistema Nacional Interconectado
Ecuatoriano.
Además los elementos de potencia mencionados en el
párrafo anterior tienen configurado la funcionalidad de
coloreo dinámico dependiendo de los niveles de voltaje y
estado del interruptor.
En la fig. 8 se muestra el desarrollo del despliegue que
permite la visualización de la información operativa en
tiempo cuasi real del anillo de 230 kV del S.N.I
Figura 6 : Tendencia de voltaje S/E Orellana 138kV
3.2. IODM – Peep
Permite visualizar en tiempo real información
operativa del sistema SCADA-EMS.
Los despliegues a mostrarse en este sistema son
diseñados en Processbook4 , las identidades (mediciones,
estados) son asociadas al momento del diseño, la fig. 7
muestra el ambiente de desarrollo de PI Processbook:
Figura 8 : Anillo de 230 kV del S.N.I Ecuatoriano
Por otra parte la implementación de la primera central
eólica en el Ecuador Continental, proyecto Villonaco,
permitió la adquisición de datos de otras variables de
proceso tales como son la velocidad y dirección del
viento y su relación directa con la generación de potencia
eléctrica.
En la fig. 9 se muestra el despliegue que permite la
visualización de las variables de proceso de la central
Villonaco.
Figura 7 : Ambiente PI Process Book
Los despliegues diseñados pueden ser de diferentes
tipos, al momento el sistema posee los siguientes
despliegues:
•
•
•
•
•
•
•
Anillo S.N.I de 230 kV
Frecuencias S.N.I
Zona Colombia
Zona Molino Milagro
Zona Oriental
Zona pascuales Trinitaria
Zona Santa Rosa Totoras
Figura 9 : Despliegue con Datos de Proceso de la Central
Eólica Villonaco
3.3. WAMS Apps
4 Es una interface gráfica para el diseño de HMIs de proceso, herramienta
propia del sistema PI.
Monitoreo en tiempo real de la información fasorial, a
través de la interfaz de PI - IEEE C37.118.
120
Como se menciona en la sección 2 de este artículo, los
datos de los PMUs son almacenados en el servidor PIWAMS, las mediciones fasoriales de voltaje y potencia
son muestreadas a una tasa de 20 muestras por segundo
a través de la interface IEEE C37.118 de PI, sin embargo
para la visualización en celulares sólo basta con tomar
una de sus muestras por segundo.
4. ESQUEMAS DE PUBLICACIÓN
La visualización de WAMS para dispositivos
móviles fue desarrollada en Visual Studio, utilizando
las tecnologías de HTML5, C#, Javascript y Ajax. Una
de las ventajas de desarrollar estas aplicaciones web en
HTML5 es su compatibilidad con dispositivos móviles
actuales. El listado de su compatibilidad se puede ver en
el link: http://mobilehtml5.org/.
El esquema 1 fue concebido para la publicación de
información relacionada con las unidades de mediciones
fasoriales PMUs. El periodo de actualización de datos
es de 1 segundos utilizando un servidor PI, un servidor
de interfaces, un servidor de desarrollo de aplicaciones
Web y un servidor Web. La fig. 11 muestra el esquema
mencionado.
La publicación de información para dispositivos
móviles se lo hace a través de servidores web, cada uno
con sus particularidades, a continuación se presentan
los dos esquemas empleados para la publicación de
información a los dispositivos móviles:
La fig. 10 muestra la visualización de los fasores de
voltaje en diferentes subestaciones del Sistema Nacional
Interconectado.
Figura 11 : Arquitectura para publicación de información de
WAMS
El esquema 2 mostrado en la fig. 12 esta relacionado
con las variables de proceso del Sistema Nacional
Interconectado y cuya rata de actualización es de 5
segundos. Para este esquema se utiliza el PI Corporativo
de CENACE que se comunica interactivamente con los
sistemas EMS, TRANSPARA y PEEP compartiendo la
información recolectada en campo para presentarla a
través de internet a los dispositivos móviles.
Figura 10 : Visualización del fasor de voltaje en distintas
Subestaciones
La figura 11 muestra la diferencia angular entre fasores
de voltaje de las Subestaciones del Sistema Nacional
Interconectado pero mostradas de manera geo referencial.
Los aplicativos corren javascripts para su actualización
gráfica dentro del dispositivo cliente, mientras que los
datos que alimentan cada aplicación son adquiridos
mediante AJAX. Este desarrollo fue realizado dentro
del área de Sistema de Tiempo Real del Sistema de
Información del CENACE, el ámbito de investigación
fue dentro del ámbito del diseño de aplicaciones Web de
Visual Studio.
Figura 12 : Arquitectura para publicación de información del
EMS A través de TECSO Y TRANSPARA
Ambos esquemas son integrados a través de la
plataforma de PI, y su publicación queda definida en tres
servidores web: Tecso, Transpara y servidor Web del PI
corporativo (sicomb). Como se muestra en las Fig. 12 y
13.
121
5. CONCLUSIONES Y RECOMENDACIONES
5.1. Conclusiones
La información disponible a ser desplegada en el
sistema IODM tiene una estrecha relación con los
esquemas de adquisición de datos implementados en
campo, por esta razón es muy importante la correcta
instalación y pruebas realizadas en campo, de esta manera
se evitará ver información distorsionada.
A nuestros compañeros de las distintas direcciones
del CENACE que participaron el desarrollo de los
despliegues e índices KPI y su colaboración en las
distintas definiciones en las plataformas: Hugo Paredes,
Pablo Salazar, Aharon de la Torre, Lourdes Farinango,
Gabriel Rivera, Gioconda Rodríguez.
REFERENCIAS BIBLIOGRÁFICAS
[1] W3C Standars, World Wide Web Consortium,
1994
Para poder realizar la implementación de estos sistemas
fue necesario el conocimiento de varias herramientas de
desarrollo Web (Visual Studio), configuradores de base
de datos y el dominio en el sistema PI. De la experiencia
adquirida se puede observar que seguir la normativa de
W3C en cuanto a diseño de aplicaciones es la mejor
opción en este tipo de desarrollos.
La presentación de una forma resumida y amigable
de la información operativa del S.N.I e indicadores
claves de desempeño convierten a estos servicios de
información en una herramienta poderosa y aliada para
la toma de decisiones; además que su compatibilidad
con dispositivos móviles tales como tabletas y teléfonos
inteligentes permite el fácil acceso a información táctica
y estratégica.
Luego de las pruebas realizadas a los diferentes
sistemas, vemos la necesidad de tener un portal web que
integre el acceso a los diferentes servicios implementados.
5.2. Recomendaciones
Se recomienda la elaboración de una encuesta a
nivel de usuario para verificar su satisfacción sobre la
información presentada como también conocer nuevos
requerimientos.
Se recomienda socializar esta herramienta con
organismos del sector eléctrico como el MEER, CELEC,
agentes privados, para que con el acceso a la información
disponible del S.N.I puedan mejorar sus procesos de
operación.
AGRADECIMIENTOS
Al CENACE y a sus autoridades; en especial a la
Direccion de Sistemas de Información por permitirnos
participar en la implementación y desarrollo de estos
proyectos.
[2] HTML5 (HyperText Markup Language,
versión 5) http://www.w3.org/TR/html51/
[3] AJAX, Asynchronous JavaScript And XML,
http://api.jquery.com/jQuery.ajax/
Carlos del Hierro Cadena.- Nació
en Quito, Ecuador en 1978.
Recibió su título de Ingeniero
Electrónico con especialidad en
Automatización y Control de la
Escuela Politécnica del Ejército
en 2001. Como experiencia
profesional
ha
desarrollado
actividades en el campo de la industria de fabricación
de sanitarios, pastas alimenticias, sistemas de
seguridad y control vehicular. Al momento, es parte
de la Dirección de Sistemas de Información del
CENACE en el área de Sistema Remoto y también
participando en las actividades relacionadas con e
Proyecto de “Gestión y Control de Combustibles en el
Sector Eléctrico”.
Roberto Gonzalo Sánchez.- Nació
en Quito en 1986. Obtuvo el título
de bachiller técnico industrial en
la especialización de electrónica
en el 2004. Recibió su título de
Ingeniería
Electrónica
en
Automatización y Control en el
2010. Actualmente es parte del
área de Sistema de Tiempo Real en la Dirección de
Sistemas de Información del CENACE y en el
Proyecto de “Gestión y Control de Combustibles en el
Sector Eléctrico”.
A nuestros compañeros de la Dirección de Sistemas
de Información que acompañaron y dieron su soporte
técnico y moral en las distintas actividades que surgieron
en la implementación del Proyecto.
122
Análisis de Estabilidad de Pequeña Señal Utilizando Mediciones
Sincrofasoriales PMU
A. F. Quinaluiza †
D. E. Echeverría‡
† Escuela Politécnica Nacional
‡Centro Nacional de Control de Energía, CENACE
Resumen— Con el acelerado crecimiento de la
demanda en los últimos años, las transferencias
de potencia a largas distancias entre diferentes
empresas de energía han ido aumentando
constantemente, razón por la cual la seguridad y
confiabilidad de los Sistemas Eléctricos de Potencia
-SEP- pueden verse seriamente comprometidas,
especialmente por el alto riesgo de violación de los
límites de seguridad del sistema eléctrico.
This utilizes data from PMU’s that are strategically
located throughout the SNI to perform lowfrequency oscillation analysis, applying one of the
modal parameter estimation techniques known as
the Prony Analysis Method.
Uno de los desarrollos más importantes e
innovadores en el área de monitoreo y control de
los SEP está orientado a las Unidades de Medición
Fasorial (PMU). Esta tecnología permite realizar
el monitoreo de oscilaciones de baja frecuencia
del Sistema Nacional Interconectado -S.N.I.- en
tiempo real.
1. INTRODUCCIÓN
En el presente trabajo se utiliza la información
de las PMU’s, las cuales se encuentran
estratégicamente ubicadas en el SNI, para realizar
el análisis oscilatorio de baja frecuencia, mediante
la aplicación de una de las técnicas de estimación
modal conocida como Análisis Prony.
Palabras claves— Estabilidad de pequeña señal
- Mediciones Sincrofasoriales – PMU – Prony WAMS.
Abstract— Given the accelerated growth in
demand over the last few years, long-distance
power transfers between different energy
companies have been steadily increasing, which
means that the safety and reliability of Electric
Power Systems (EPS) could become seriously
compromised, especially given the high risk of
violating the electricity system’s security limits.
One of the most important and innovative
developments in the area of EPS control and
monitoring involves Phasor Measurement Units
(PMU).
This technology enables real-time
monitoring of low-frequency oscillations in the
Sistema Nacional Interconectado - SNI (National
Interconnected System).
Index Terms— Small-signal stability –
Synchrophasor Measurements – PMU – Prony –
WAMS.
La estabilidad de ángulo del rotor de un SEP
puede verse interrumpido debido a la pérdida de
sincronismo de las máquinas después de haber sido
el sistema eléctrico sometido a una perturbación, el
problema de estabilidad de ángulo del rotor involucra
el estudio de las oscilaciones electromecánicas
inherentes a los sistemas de potencia. La metodología
que se usa en el presente trabajo para la identificación
de modos oscilatorios de baja frecuencia presentes
en el SEP se basa en el procedimiento de mediciones
sincrofasoriales registradas por los equipos PMU’s.
El presente artículo técnico se organiza de la
siguiente manera, en la sección 2 se presenta las
características de la medición sincrofasorial. La
sección 3 presenta las metodologías usadas para la
detección de los modos oscilatorios, en la que destaca
el método de estimación modal conocido como
Análisis Prony. En la sección 4 se simula el sistema de
dos áreas y se realiza el análisis Prony de las señales
simuladas. La sección 5 presenta lineamientos con
respecto a la definición de la ventana de análisis con
el fin de obtener resultados confiables de los modos
oscilatorios. En la sección 6 se realiza un análisis de
un evento registrado en el S.N.I., finalmente en la
sección 7 se presenta las conclusiones del trabajo.
2. TECNOLOGÍA
DE
SINCROFASORIAL (PMU)
MEDICIÓN
Un fasor constituye la representación analítica
de ondas sinusoidales en estado estacionario a
frecuencia fundamental. Los voltajes y corrientes de
123
la red eléctrica son ondas sinusoidales que vienen
representadas, de forma genérica, por la siguiente
ecuación [1]:
(1)
Donde ω es la frecuencia de la señal en radianes
por segundo, φ es el ángulo de fase en radianes y Xm
es la amplitud pico de la señal.
El fasor puede ser representado por un número
complejo que gira a la velocidad angular ω, conocido
como su representación fasorial o simplemente fasor,
como se observa en la ecuación (2) [1]:
(2)
Donde: X_m/√2 es el valor RMS de la señal.
2.2. Sistemas de Medición Fasorial Jerárquico
La mayoría de datos de los fasores son utilizados en
centros alejados de las PMU’s por lo que es necesario
un sistema de comunicaciones y concentradores
de datos (PDC) que permitan el traslado de la
información a los centros de control para aprovechar
los beneficios del sistema de medición [1], en la
arquitectura de transmisión de datos de los fasores los
dispositivos que siguen a la PMU en nivel jerárquico
son los concentradores de datos (PDC).
Los PDC son dispositivos que se encargan de
recibir, filtrar, procesar y almacenar los datos de los
fasores provenientes de las PMU’s con su respectiva
estampa de tiempo y en algunos casos de otros PDC’s
para crear un conjunto de datos fasoriales de una gran
parte del sistema o de todo el sistema [4].
Un sincrofasor o fasor sincronizado se define como
“un fasor calculado a partir de datos muestreados
usando una señal de tiempo estándar como referencia
para la medición”. La referencia angular es una onda
coseno de frecuencia nominal, sincronizada con el
tiempo UTC (Coordinated Universal Time) a través
de GPS [12]
Para la transferencia de datos desde las PMU’s
hasta los PDCs, se requiere una red apropiada
de comunicación, que puede ser de fibra óptica,
tecnologías de comunicación telefónica, digital y
Ethernet, la transmisión de datos se realiza bajo
protocolos de comunicación [5].
2.1. Unidades de Medición Fasorial (PMU)
2.3. Sistema de Medición de área Amplia (WAMS)
Las PMU’s son dispositivos que permiten estimar
los sincrofasores de las ondas sinusoidales de corriente
y voltaje alternos, en diferentes barras de un SEP [2],
todas las medidas que se obtienen de las PMU’s son
sincronizadas con un mismo tiempo de referencia,
a través del sistema GPS. La Fig. 1 presenta las
funciones principales de la PMU.
Los sistemas WAMS son aquellos que permiten
disponer de mediciones distribuidas en el SEP. Se
componen principalmente de equipos de medición
fasorial (PMU), concentradores de datos (PDC),
sistemas de comunicaciones de alta capacidad
que permite tomar con gran precisión lecturas
sincronizadas de las condiciones de la red en puntos
estratégicos del sistema [6]. Las PMU’s entregan
información en intervalos de milisegundos en
comparación con el tradicional sistema SCADA.
Tabla 1: Mediciones PMU vs mediciones SCADA [2]
Figura 1: Funciones principales de la PMU [2]
La estructura de una PMU genérica se compone de
un sistema de adquisición de datos PDC, cuenta con:
filtro anti-aliasing, módulo conversor análogo-digital,
oscilador de sincronización de fase, microprocesador,
y receptor de GPS [3].
124
2.3.1. WAMS en el Ecuador [2]
La Corporación CENACE (Centro Nacional de
Control de Energía) ha estado trabajando, desde el
año 2010, con iniciativas para la implementación y
estructuración del sistema WAMS con el objetivo de
monitorear y supervisar en tiempo real las oscilaciones
presentes en el S.N.I. Actualmente se encuentran
instalados 18 dispositivos PMU’s en las principales
subestaciones del S.N.I.
mediante el uso de métodos como: análisis modal o
identificación modal.
El problema de estabilidad de ángulo del
rotor involucra el estudio de las oscilaciones
electromecánicas inherentes a los sistemas de potencia,
para mantener o restaurar el equilibrio entre el torque
eléctrico y el torque mecánico de cada máquina del
sistema, la dependencia del tipo de perturbación
permite clasificar el problema de estabilidad angular
en dos tipos: estabilidad transitoria (Gran Señal) y
estabilidad oscilatoria (Pequeña Señal), Gran Señal
cuando se analiza cambios grandes en el sistema
que pueden ser debido a cortocircuitos, pérdida de
una línea o unidad de generación y Pequeña Señal
cuando se analiza cambios pequeños en el sistema
debido a variaciones entre la carga y generación las
cuales producen pequeños cambios en el ángulo del
generador, velocidad y potencia.
La estabilidad oscilatoria del sistema de potencia
depende de la existencia de las componentes del
torque sincronizante y torque de amortiguamiento
para cada máquina sincrónica.
Figura 2: Ubicación física de las PMU's en el S.N.I [7].
2.4. Aplicaciones de la PMU [5] [8]
Las PMU's permiten una serie de aplicaciones
para incrementar la confiabilidad de la red “basada
en mediciones” en lugar de modelos matemáticos del
sistema de potencia. A continuación se presenta las
principales aplicaciones de los sistemas WAMS:
La inestabilidad de pequeña señal puede darse por:
• Incremento monótono del ángulo del
rotor debido a la falta de suficiente torque
sincronizante Ts (negativo). Este da origen a
un modo de inestabilidad no oscilatoria.
• Oscilaciones del rotor de amplitud creciente
debido a la falta de suficiente torque de
amortiguamiento Td (negativo). El mismo
que da origen a un modo de inestabilidad
oscilatoria.
Supervisión del sistema eléctrico de potencia en
“tiempo real”.
Mejora la estimación de estado.
Mejora la confiabilidad de las acciones de control,
disminuyendo
incertidumbres en la toma de
decisiones.
• Supervisión del comportamiento del ángulo,
potencia, frecuencia y voltaje de los SEP's.
• Sistemas de protección avanzado de los SEP’s.
• Detección más precisa del punto de falla.
• Detección de oscilaciones Inter-áreas.
3. METODOLOGÍAS PARA MONITOREO DE
OSCILACIONES DE BAJA FRECUENCIA EN
TIEMPO REAL UTILIZANDO PMU [9]
Las perturbaciones en los SEP, producen
oscilaciones en el sistema que pueden ser identificadas
a través del análisis de estabilidad de pequeña señal,
(3)
3.1. Oscilaciones del Sistema de Potencia
Las oscilaciones son caracterizadas mediante
los denominados modos de oscilación que pueden
clasificarse en forma general, en los siguientes [9]:
Los modos inter-área, los cuales son causados por
interacciones entre grandes grupos de generadores
oscilando entre ellos, estos modos presentan rangos
de frecuencia entre 0,1 a 0,7 Hz. Los modos locales,
se asocian con oscilaciones entre rotores de un
grupo de generadores cercanos unos a otros, estas
oscilaciones presentan frecuencias en el rango de 0,7
a 2,0 Hz. Los modos de control, se asocian con el
control de las unidades de generación y equipos, Los
modos torsionales, se presentan cuando los controles,
125
interactúan con la dinámica del sistema eje-turbinagenerador de las unidades generadoras. Este tipo
de oscilaciones presentan un rango de frecuencias
asociadas bastante amplio.
3.2. Métodos de Análisis de Oscilaciones de Baja
Frecuencia
Los métodos de análisis permiten estimar los
modos oscilatorios presentes en el sistema de potencia
a partir de métodos basados en modelo del sistema
(análisis modal) y métodos basados en mediciones
sincrofasoriales obtenidas de las Unidades de
Medición Fasorial (PMU).
3.2.1 Método basado en modelo del sistema (Análisis
Modal) [9]
La técnica matemática conocida como análisis
modal, considera que ante pequeñas perturbaciones las
ecuaciones diferenciales que representan la dinámica
del sistema pueden ser linealizadas alrededor de un
punto de operación. Esta herramienta permite luego
determinar la frecuencia y el amortiguamiento de
los modos oscilatorios a través del cómputo de los
valores propios (λ) de la matriz de estado del sistema.
3.2.2 Métodos de estimación modal basado en
mediciones
Dentro de las técnicas más empleadas de
identificación modal se encuentran: la Transformada
de Fourier, Análisis Prony, Transformada de HilbertHuan, Filtro de Kalman, Transformada de Wavelet,
entre otras. Estos algoritmos matemáticos permiten
la estimación de los modos oscilatorios a partir de
mediciones PMU’s.
3.3. Metodología de Análisis Prony [10]
Esta técnica descompone la señal de interés en una
suma de funciones exponenciales, cada una de las
cuales está caracterizada por los siguientes parámetros:
amplitud, fase, frecuencia y amortiguamiento. La
señal y(t) consiste de N muestras y(tk) que son
uniformemente espaciadas por una cantidad Δt.
Donde n ≤N, es el subconjunto de modos a ser
determinado, los tiempos de muestreo tk, por lo tanto
la Ecuación 5 puede ser replanteada en forma discreta.
(4)
Los valores propios complejos se dan en pares
conjugados y cada par corresponde a un modo
oscilatorio donde la parte real (σ) es una medida de
amortiguamiento del modo y la parte imaginaria (ω)
da una medida de la velocidad angular del modo de
oscilación, es decir, la frecuencia de oscilación del
modo, (ωn) representa la velocidad angular del modo
de oscilación y (ξ) razón de amortiguamiento del modo
de oscilación, la Fig. 3 presenta una clasificación
de los modos de oscilación según la ubicación en el
plano complejo.
(5)
(6)
(7)
Donde: los Zi son las raíces del polinomio.
3.3.1 Algoritmo de Prony
El algoritmo de análisis Prony para la obtención
de las incógnitas requiere de algunos pasos que se
detallan a continuación:
Paso 1.- Colocar los elementos seleccionados del
registro de mediciones y(tk) en una matriz de datos
Toeplitz, la cual es una matriz con una diagonal
constante en la que cada diagonal descendente de
izquierda a derecha es constante [14].
Paso 2.- Ajustar los datos con un modelo de
Predicción Lineal (PL) discreto.
Figura 3: Ubicación de los autovalores en el plano, estabilidad
[13].
Paso 3.- Encontrar las raíces del polinomio
característico asociados con el modelo de PL del
paso 1, encontrar los coeficientes de predicción
que originarán las estimaciones de factor de
amortiguamiento y frecuencia sinusoidal de cada
término exponencial.
126
(8)
Paso 4.- Con las raíces encontradas en el paso3,
se obtiene una segunda ecuación lineal, con la cual
es posible estimar la amplitud de la exponencial y la
fase inicial de la sinusoidal, el objetivo inmediato es
encontrar los Ri y zi que produzcan ŷ(t). En base a este
procedimiento se diseña un algoritmo a seguir para el
método Prony que se muestra en la Fig. 4.
y amplitud (MW) de los modos de baja frecuencia y
pobre amortiguamiento.
4.1.1 Sistema de dos aéreas sin control de excitación
Tabla 2: Modos oscilatorios, simulados en Power Factory.
Tabla 3: Análisis Prony, modos en la señal de potencia activa.
Figura 4: Algoritmo general de Prony [11]
4. APLICACIÓN DEL ANÁLISIS PRONY
4.1. Sistema de dos Áreas
A continuación se simula el sistema de potencia de
prueba de dos áreas en el programa computacional
Power Factory de DigSILENT y se aplica el análisis
Prony a las señales de potencia, voltaje y frecuencia
en los diferentes nodos del sistema, con el objetivo de
determinar la señal que brinda mayor observabilidad
de los modos inmersos en las señales analizadas.
4.1.2 Sistemas de dos áreas con AVR (Automatic
Voltage Regulator)
Tabla 4 : Modos oscilatorios, simulados en Power Factory
Tabla 5 : Análisis Prony, modos en la señal de voltaje con AVR
Figura 5: Sistemas de dos aéreas interconectadas en 230 kV [9]
En las Tablas 2, 4 y 6 se observa los resultados
de los modos oscilatorios obtenidos mediante el
programa Power Factory, mientras que en las Tablas
3, 5 y 7 se observa los modos oscilatorios obtenidos al
aplicar el análisis Prony a diferentes señales mediante
el uso del programa DSI Toolbox [2]. Se muestran
los valores de frecuencia (Hz), amortiguamiento (ξ%)
127
4.1.3 Sistema de dos aéreas con PSS (Power System
Stabilizer)
Tabla 6 : Modos oscilatorios, simulados en Power Factory
a través de la red de comunicaciones intranet estándar y
realizar el monitoreo de las oscilaciones presentes en el
SNI en tiempo real.
Se tiene como premisa del análisis realizado en la
Sección 4, que la señal de potencia activa brinda mayor
observabilidad de los modos, razón por la cual la señal
eléctrica de análisis en WAProtector por definición es la
potencia activa del vínculo asociado a la PMU.
Con el fin de mostrar la influencia de la longitud de las
ventanas se aplica el análisis Prony a la señal de potencia
activa registrada en la PMU: QUEV-PASC1-230,
instalado en la S/E Quevedo, ante el disparo de la posición
Calope de la subestación Quevedo 69 KV, ocurrido el 3
de agosto del 2013 a las 17:29:31. La Fig. 6 se muestra
la señal de potencia registrada en la PMU y las ventanas
seleccionadas para el análisis.
Tabla 7 : Análisis Prony, modos en la señal de frecuencia con
PSS
Al aplicar el análisis Prony a las señales seleccionadas
se observa la presencia de tres modos oscilatorios de
baja frecuencia inmersos en la señal, un modo Inter-área
con una frecuencia alrededor de (f=0,53 Hz), presentes
en todas las señales analizadas, y dos modos locales con
frecuencias alrededor de (f=1,079 Hz y f=1,717 Hz)
presente solo en la señal de potencia activa, mientras que
en las señal de voltaje y frecuencia solo se observa la
presencia del modo local, esto se debe a que la amplitud
que presentan los modos son muy bajos y no aportan a la
reconstrucción de la señal en el análisis Prony, por lo tanto
se concluye que la señal que brinda mayor información
y precisión de los modos oscilatorios de baja frecuencia
presentes en el sistema analizado es la señal de potencia
activa.
Al analizar el sistema de dos aéreas para diferentes
casos como: 1) sin control de excitación, 2) con AVR
y 3) con PSS se observa la influencia que tiene cada
elemento en el sistema de potencia y como contribuye
al efectivo control del amortiguamiento de oscilaciones,
para mejorar la estabilidad del sistema ante la presencia
de perturbaciones que ocurren en los SEP.
Figura 6 : Potencia activa registrada en la PMU: QUEV_
PASC1_230
Se aplica el análisis Prony a la señal de potencia
activa de interés en diferentes ventanas de tiempo
(pre-contingencia, durante la contingencia y postcontingencia) con el fin de determinar los modos
oscilatorios inmersos en la señal.
5.1. Pre-Contingencia
5.1.1 Análisis Prony. Ventana antes del disturbio, 2 s
de análisis (17:29:27- 17:29:29)
5. VENTANA DE ANÁLISIS
La precisión en la estimación de los modos oscilatorios
mediante el uso del análisis Prony depende de la
selección y longitud de la ventana de tiempo de análisis
considerada. Para llevar a cabo el análisis oscilatorio
aplicando el método Prony en el S.N.I. se utiliza las
mediciones sincrofasoriales registradas en las PMU’s. La
Corporación CENACE adquirió el software WAProtector,
este permite adquirir los datos fasoriales de las PMU’s
128
Tabla 8: Modos oscilatorios. Ventana 2 s de análisis
5.1.2 Análisis de Prony. Ventana antes del d isturbio,
4 s de análisis (17:29:27-17:29:31)
Tabla 9: Modos oscilatorios. Ventana 4 s de análisis
5.2. Ventana Durante el Disturbio (17:29:2917:29:32)
Figura7 : Análisis Prony. Ventana 3 s durante el disturbio
Tabla 10 : Modos oscilatorios. Ventana 3 s durante el disturbio
Se observa en las Tablas 8 y 9 los resultados de los
modos oscilatorios presentes en la señal de análisis,
para la ventana de tiempo de 2 s los modos de baja
frecuencia no pueden ser detectados mediante el
análisis Prony, en cambio en las ventanas de 4 s y 10
s se aprecia el modo Inter-área y los modos locales,
para la ventana en la que incluye el transitorio se
tiene como resultados modos oscilatorios altamente
inestables, observados en la Tabla 10.
Las ventanas de análisis que permiten obtener
buenos resultados de los modos oscilatorios son las
ventanas en donde se analiza al menos dos veces
el periodo del modo de interés, para este caso son
las ventanas de tiempo de 4 s y 10 s. Además, el
resultado de los modos al aplicar el análisis Prony
también depende del lugar de elección de la ventana
de análisis, de forma que se debe evitar analizar las
ventanas cercanas o que contenga el disturbio ya
que presentan altas no linealidades en las señales y
el análisis de Prony es un método donde los datos se
ajusta de forma óptima a un modelo de Predicción
Lineal. Las ventanas de tiempo que deben ser
analizadas para obtener buenos resultados de los
modos es la parte final del transitorio.
6. DETECCIÓN DE MODOS OSCILATORIOS
EN EL SNI
5.3. Post-Contingencia
5.3.1. Análisis Prony. Ventana después del disturbio,
4 s de análisis (17:29:32 - 17:29:36)
Tabla 11: Modos oscilatorios. Ventana 4 s de análisis
A continuación se presenta un ejemplo de análisis de
estabilidad oscilatoria utilizando la información de los
PMU’s. Para determinar los modos oscilatorios poco
amortiguados en el S.N.I., ante la ocurrencia de un evento,
se aplica el análisis Prony a la señal de potencia activa
registrada en la PMU: POMA_JAM3_230 instalada
en la S/E Pomasqui, luego del disparo de 550 MW de
generación en la central Chivor en el sistema colombiano,
ocurrido 21 de agosto del 2013 a las 21:11:31. En la Fig.
9 se presenta la señal registrada por la PMU
5.3.2. Análisis Prony. Ventana después del disturbio,
10 s de análisis (17:29:32-17:29:42)
Tabla 12: Modos oscilatorios. Ventana 10 s de análisis
Figura 8 : Señal de potencia activa registrada en la PMU:
POMA_JAM3_230
Al presentarse un disturbio en los sistemas ecuatoriano
o colombiano, este afecta directamente a los dos
sistemas de potencia, por ejemplo en el caso de perder
generación en el sistema colombiano, el efecto general
es una disminución en el valor frecuencia sobre el
129
valor nominal de 60 Hz, debido al desbalance entre
carga-generación. Este desbalance produce la actuación
instantánea de todos los generadores del sistema que
tratan de encontrar nuevos estados de operación estable,
produciendo oscilaciones de potencia ocasionadas por
los intercambios de energía entre las máquinas.
Las oscilaciones generadas por causa del evento
pueden traer problemas de inestabilidad oscilatoria
por lo cual es indispensable conocer los modos poco
amortiguados que pueden volver al sistema inestable.
6.1. Ventana después del disturbio, 4 s de análisis
(21:11:33 - 21:11:37)
Los resultados obtenidos al aplicar el análisis Prony
a la señal analizada se puede apreciar en la Tabla 13 y
14 donde se observa la presencia de tres modos un
Inter-área y dos locales para cada caso, el modo Interárea presenta amortiguamiento negativo de (ξ=-5,507%
a ξ=-2,007%) símbolo de inestabilidad en el sistema,
mientras el modo local varia su amortiguamiento (ξ=6,021% a ξ=3,339%), también se observa que los modos
inmersos en la señal tiende a amortiguarse con el tiempo.
Debido a la magnitud del evento el sistema no puede
mantener el balance entre carga–generación por lo que
trae consecuencias en el SNI como:
• Actuación del primer paso de alivio de carga por
baja frecuencia.
• Baja frecuencia en el SNI
• La importación de Ecuador a Colombia vario de
150,16 MW a 15,96 MW. Se tenía programado
una importación de 152 MW
7. CONCLUSIONES Y RECOMENDACIONES
Figura 9 : Análisis Prony. Ventana 4 s de análisis
Tabla 13 : Modos oscilatorios. Ventana 4 s de análisis (21:11:27
- 21:11:31)
6.2. Ventana después del disturbio, 4 s de análisis
(21:11:33 - 21:11:37)
Figura 10 : Análisis Prony. Ventana 4 s de análisis
Tabla 14 : Modos oscilatorios. Ventana 4 s de análisis (21:11:33
- 21:11:37).
En la Fig. 8 se observa el comportamiento dinámico
de la señal durante el evento, esta presenta oscilaciones
crecientes con poco amortiguamiento que podrían llevar
al sistema a la inestabilidad.
Los resultados obtenidos al aplicar el análisis Prony
a los eventos registrados por las PMU’s muestran que el
método usado permite estimar con precisión los modos
de las oscilaciones de baja frecuencia, sin embargo, para
estimar los modos oscilatorios mediante el análisis Prony
se debe tomar en cuenta varios aspectos como: selección
de la señal para el análisis, longitud de la ventana
de análisis, se debe evitar tomar ventanas de tiempo
cercanas o que contengan el transitorio, ya que presentan
modos altamente inestables debido a que los transitorios
causados por disturbios provocan distorsiones muy
fuertes en la señal, la ventana de tiempo que debe ser
analizada para obtener buenos resultados de los modos
es la parte final del transitorio ya que no presentan
distorsiones fuertes o pronunciadas.
Al estimar los modos inmersos en las señales analizadas
se tiene como resultado modos con diferente frecuencia
y amortiguamiento, esto se debe a que los valores de
cada modo son dependientes del tipo de disturbio que se
presente en el sistema de potencia, por lo que a diferentes
disturbios se excitan diferentes componentes modales.
En el sistema de prueba de dos áreas se observa que el
AVR presenta lazos de control con ganancias muy altas,
estas ganancias se ajustan con el objetivo de mejorar los
límites de estabilidad luego de fallas transitorias pero ante
pequeñas perturbaciones contribuye de forma negativa al
amortiguamiento de oscilaciones dando como resultado
un sistema inestable con amortiguamiento negativo (ξ=2,57%), mientras que los PSS aporta con amortiguamiento
positivo (ξ=14,2%) a las oscilaciones que se presentan en
el sistema, por lo tanto la combinación de los AVR y PSS
130
contribuyen de forma efectiva al amortiguamiento de las
oscilaciones de baja frecuencia.
La implementación de las WAMS en los sistemas
eléctricos de potencia ayuda a la toma de medidas
preventivas y de control inmediatas ante riesgos de
inestabilidad que se producen en el sistema, las medidas
sincronizadas en el tiempo obtenidas de las PMU’s
permite observar la dinámica del sistema, la tasa de
actualización de datos de las PMU’s es de 10-60 muestras
por segundo en comparación con el tradicional SCADA
cuya tasa de actualización de datos es 1 muestra cada 2
a 5 s.
REFERENCIAS BIBLIOGRÁFICAS
[1] Phadke A.G; Thorp, J.S, Synchronized Phasor
Measurements and Their Applications. 1st
Edition. M.A. Pai, University of Illinois at
Urbana-Champaing, Urbana. Illinois, Alex
Stankovic, Northeastern University, Boston,
Massachusetts. U.S.A., 2008.
[2] Colomé Delia, Sistemas de Medición WAMS.
Curso de perfeccionamiento para profesionales
de la Corporación CENACE, 10 al 12 de abril
del 2013.
[3] Borda Carlos; Díaz, Hernando; Olarde, Andrés,
Identificación de Parámetros de Líneas de
Transmisión y Transformadores. Universidad
Nacional de Colombia, Primera edición, 16 de
abril del 2010.
[4] Lozano Carlo; Castro, Ferley; Ramirez,
Sindy, Unidades de Medición Fasorial PMU,
Noviembre, 2011.
[5] Araque G.J; Barba, R, Unidades de Medición
Fasorial – PMU. Corporación Centro Nacional
de Control de Energía CENACE.
[6] Ohrn Marina; Sen, Amitava, Convergencia en
la Sala de Control. Integración de Sistemas
de Trasmisión Distribución y Gestión de
Interrupciones, Revista ABB, 2005.
[7] Cepeda J, Echeverría. D, Argüello. G,
Tecnología de Medición Sincrofasorial en
el Desarollo de una Red de Transmisión
Inteligente. Corporación Centro Nacional de
Control de Energía – CENACE, información
confidencial.
[8] Cárdenas
Jorge;
Menéndez,
David.
Extensión del uso de los Sincrofasores para
131
Facilitar la Integración de las EE.RR en el
Sistema Eléctrico. GE imagination at Word,
FUTURED, 24 de marzo del 2011.
[9] P Kundur. Power System Stability and
Control. 1st Edition, the EPRI Power System
Engineering Series, McGraw-Hill Inc., New
York NY, U.S.A., 1994.
[10]
Power System Dynamic Performance
Committee, Identification of Electromechanical
Modes in Power Systems, IEEE Task Force
Report, Special Publication TP462, June 2012.
[11] García Salvador. Implementación de un
Medidor con Microcontrolador para la
Detección de Oscilaciones de Baja Frecuencia.
Escuela Superior de Ingeniería Mecánica y
Eléctrica, Sección de Estudios de Posgrado e
Investigaciones, México, Diciembre, 2011.
[12] IEEE Power Engineering Society, “IEEE
Standard for Synchrophasors for Power
Systems”, IEEE Std. C37.118-2005, March
2006.
[13] CENACE Análisis de Estabilidad de Pequeña
Señal. Periodo Noviembre 2012-Abril 2013,
informe final Noviembre 2012, información
confidencial.
[14] http://es.wikipedia.org/wiki/Matriz_de_
Toeplitz.
Ángela Fernanda Quinaluiza
Pillajo, Nació en Machachi, el 1
de
marzo.
Sus
estudios
secundarios los realizó en
Institutito Técnico Superior
Aloasí. Obteniendo el título de
Bachiller Técnico Industrial con
especialidad Electricidad. Sus
estudios superiores los realizó en la Escuela
Politécnica Nacional en la Carrera de Ingeniería
Eléctrica
Diego E. Echeverría Jurado nació
en 1982 en la ciudad de Puyo,
Ecuador. Recibió su título de
Ingeniero Eléctrico de la Escuela
Politécnica Nacional de Quito, en
2006. Desde 2008, ha estado
realizando sus estudios de
Doctorado en Ingeniería Eléctrica
en el Instituto de Energía Eléctrica (IEE), de la
Universidad Nacional de San Juan, Argentina como
parte de una beca de 4 años financiada a través del
Programa Regional del Servicio de Intercambio
Alemán (DAAD, por sus siglas en alemán).
Actualmente trabaja en el Centro Nacional de Control
de Energía CENACE del Ecuador en la Dirección de
Operación. Sus áreas de interés son: Estabilidad de
Sistemas de Potencia en Tiempo Real, Sistemas de
medición sincrofasoriales PMU’s y Control de
Emergencia de Sistemas de Potencia.
132
Arquitecturas de red LAN para la automatización de subestaciones,
basadas en la norma IEC 61850 (RSTP, PRP y HSR)
A. F. Zurita†
G. G. Rodríguez‡
† CELEC EP - TRANSELECTRIC
‡ CENACE
Resumen— La norma IEC 61850 es la base en
la implementación de subestaciones eléctrica
automatizadas, permite que los equipos de
protección, control y medición de diferentes
fabricantes puedan trabajar en una misma red
Ethernet. Dependiendo de la disponibilidad
requerida para cada subestación, se adoptan
esquemas y protocolos de protección en las redes
Ethernet, los cuales incrementan la disponibilidad
del sistema.
Actualmente para esta protección se utiliza el
protocolo RSTP (Rapid Spanning Tree Procotol),
sin embargo para subestaciones principales,
es necesario el empleo de nuevos esquemas de
protección, que disminuyan e incluso eliminen el
tiempo de indisponibilidad, en el caso de una falla
en algún segmento de la red, esto se consigue a
través de los protocolos PRP (Parallel Redundancy
Protocol) y HSR (High-availability Seamless
Redundancy.
El presente documento incluye una introducción a
la norma IEC 61850, el análisis de los protocolos
de protección de las redes LAN empleados para
la conexión de los IEDs y switches: RSTP, PRP y
HSR, y su comparación, concluyendo finalmente
con criterios de selección de uno u otro dependiendo
del diseño de la subestación a ser construida.
Palabras clave— IEC 61850, RSTP, PRP HSR,
Ethernet.
Abstract— The IEC 61850 standard has become
the foundation for implementing automated
electric substations, and it permit protection,
control and measuring equipment from different
manufacturers to work in the same Ethernet
network. Depending on the availability required
for each substation, different protection schemes
and protocols are adopted for the Ethernet
networks, which increase system availability.
Currently is used the RTSP protocol (Rapid Square
Spanning Tree Protocol), however for substations
with more bay connection, it is necessary to use
new protection schemes that diminish and even
eliminate periods of unavailability. In the event of
a failure in one segment of the network, the PRP
Protocols (Parallel Redundancy Protocol) and the
HSR (High-availability Seamless Redundancy)
will come into play.
This paper gives an introduction to the IEC
61850 Standard, and an analysis of the protection
protocols for LAN networks used for the IED
connections and switches: RSTP, PRP and HSR,
and their respective comparisons, concluding
selection criteria for one or the other depending
on the substation design.
Index Terms— IEC 61860, RSTP, PRP HSR,
Ethernet.
1. INTRODUCCIÓN
En la actualidad la mayoría de las subestaciones
eléctricas son diseñadas mediante sistemas de
automatización,
que
incluyen
equipamiento
electrónico inteligente (IEDs por sus siglas en inglés)
y computadores, interconectados a través de switches
y fibra óptica, de tal forma que la administración sea
más fácil, y que la intervención del hombre en éstas
subestaciones vaya disminuyendo.
La norma IEC 61850 fue introducida en el año 2004
con el fin de ser el marco de referencia para lograr la
interoperabilidad de los equipos que forman parte de
los sistemas de automatización de las subestaciones
eléctricas, y para lo cual adoptó estándares y
tecnologías ampliamente utilizados a nivel mundial
como TCP/IP y Ethernet, XML, aplicaciones cliente
– servidor, nodos lógicos, etc.
133
En el caso de las redes LAN utilizadas para
la conexión de dispositivos de un sistema de
automatización la primera versión de la norma no
estableció la arquitectura, ni los protocolos que
permitan la protección de estas redes. Sin embargo,
el desarrollo tecnológico incluyó al protocolo RSTP
para este fin.
2.1.2 Switches
La versión 2 de la norma publicada en el año 2010
introduce dos protocolos para la protección de redes
LAN dentro de los sistemas de automatización, estos
son el PRP y HSR. Cada uno de estos protocolos cuenta
con sus particularidades que los hacen adecuados a un
determinado tipo de subestación, dependiendo de la
disponibilidad requerida.
Considerando las excelentes características técnicas
como son: gran ancho de banda, baja atenuación
de la señal, integridad, inmunidad a interferencias
electromagnéticas, alta seguridad y larga duración, en
las redes Ethernet de una subestación automatizada se
utiliza fibra óptica como el medio de transmisión de
la información entre los equipos que la conforman.
2. LA NORMA IEC 61850
2.1.4 Equipo Primario
La norma IEC 61850 está conformada por diez
partes, las tres primeras definen ideas generales
relacionadas con la norma. La parte 4 los
requerimientos para la instalación de una subestación
utilizando la norma IEC 61850. La parte 5 especifica
los parámetros requeridos para la implementación
física de la subestación. La parte 6 define el lenguaje
XML para la configuración de los IEDs. La 7 detalla
los conceptos lógicos y está dividida en cuatro
subpartes. En la parte 8 se conceptualiza el mapeo
interno de los objeto para la presentación en capas y
para los enlaces de capa Ethernet. La parte 9 define
el mapeo de los valores muestreados de medición
para conexiones punto a punto Ethernet. La última
parte detalla las instrucciones para las pruebas de
conformidad [1].
La información que en una subestación convencional
anteriormente era enviada a través de cable de cobre,
uno por cada señal, hacia la sala de control de la
subestación, ahora puede ser enviada por un par de
hilos de fibra óptica. Para esto el equipamiento de
patio debe contar con los conversores (internos o
externos) que le permitan esta funcionalidad.
2.1. Componentes físicos de la red Ethernet
2.2. Arquitectura de red de la Subestación
En términos generales la norma incluye como
partes físicas de la red Ethernet: equipo primario,
IEDs, switches, computadores y la fibra óptica como
medio de transmisión de la información.
La arquitectura de red una subestación está
conformada por dos buses (swiches de conexión);
los equipos de patio forman parte del bus de proceso,
los equipos de subestación (IEDs) y computadores
forman parte del bus de subestación. En la Fig. 1
se puede observar la arquitectura básica de una
subestación:
2.1.1 DEI, Dispositivo Electrónico Inteligente
Un IED (por sus siglas en inglés) es un equipo
instalado en una subestación que recibe y envía
datos de control o protecciones desde y hacia una
fuente externa, es básicamente un computador, con
lógicas digitales específicas, para la ejecución de
procesos específicos [2]. Dispone de puertos de
entradas y salidas, digitales y analógicas, puertos
de comunicación Ethernet, USB, etc. Es además
el dispositivo en el cual se almacenan los objetos
lógicos.
Un switch es un equipo que permite la comunicación
entre los IEDs y demás dispositivos que forman parte
de la red Ethernet, dentro de una subestación.
2.1.3 Fibra óptica
2.1.5 Computadores
Para las funciones de monitoreo y configuración
de la subestación, así como para el almacenamiento
de eventos, se requieren computadores que también
forman parte de la red Ethernet. Estos equipos pueden
conectarse a la red Ethernet a través de cable de cobre
en lugar de fibra óptica.
Red WAN
Computador de
Configuración local
Computador de
monitoreo de la SE
Router
Gateway
Bus de
Subestación
Equipo de
Control A
Equipo de
Protección A
Equipo de
Proceso A
Equipo de
Proceso B
Equipo de
Control B
Equipo de
Protección B
Scada
Nivel de
Subestación
Nivel de
Subestación
Bus de
proceso
Equipo de
Proceso Z
Nivel de
Proceso
Figura 1: Arquitectura Básica de una subestación
134
En el esquema presentado se puede observar que
la conexión de todos los equipos que conforman
el sistema de automatización de la subestación se
realiza a través de switches. De tal forma que la
información requerida entre cada uno de los equipos
puede ser transmitida sin la necesidad de conexión
independiente por cada señal.
Cada función depende de uno o varios equipos
físicos, los cuales contienen los nodos lógicos. Los
nodos lógicos se encuentran enlazados por conexiones
lógicas. La Fig. 2 presenta la relación entre estos
conceptos.
También se distinguen tres niveles principales,
así el nivel de proceso que corresponde al equipo
primario instalado en el patio de la subestación, el
nivel de bahía está relacionado con los IEDs ubicados
generalmente en las casetas de patio, y el nivel de
subestación correspondiente a los computadores
ubicados en las salas de control.
Las interacciones entre los equipos que forman
parte del sistema de automatización principalmente
se dividen en tres categorías:
1. Configuración y obtención de datos
2. Monitoreo y reporte de datos
3. Registro de eventos
Figura 2. Estructura de intercambio de información
Un dispositivo físico puede contener varios nodos lógicos,
y cada nodo lógico puede contener a su vez varios Objetos de
Datos. Cada Objeto de Datos está conformado por atributos
de datos, y por los componentes de los atributos de datos. La
Figura 3 muestra lo descrito anteriormente.
IED Dispositivo Físico
Para poder realizar estas interacciones la norma
define una estructura de comunicación compleja que
incluye cinco perfiles de comunicación, los cuales se
detallan a continuación:
4. ACSI (Abstract Communication Service
Interface): comunicación cliente – servidor.
5. GOOSE (Generic Object Oriented Substation
Event): comunicación rápida dentro del bus de
la subestación.
6. GSSE (Generic Substation Status Event):
prove una vía para el intercambio del estatus
del nivel de subestación.
7. SMV (Sampled Measured Value Multicast):
provee una vía para el intercambio de
información en el bus de proceso.
8. Señales de sincronismo
2.3. Estructura de Intercambio de Información
Físicamente cada IED tiene una conexión hacia
la red LAN de la subestación, lógicamente existe
intercambio de información desde cada uno de los
nodos lógicos que se encuentran en los IEDs. Un nodo
lógico es la parte más pequeña de una función que
intercambia información entre IEDs, definiéndose en
él sus datos y atributos.
Dispositivo Lógico
Nodo Lógico
Objeto de Datos
Atributos
Figura 3: Estructura de conformación de datos
3. REQUERIMIENTOS DE
COMUNICACIONES
Los sistemas de automatización de las subestaciones
tienen dos características indispensables propias de
sistemas de tiempo real: a) la sincronización de tiempo y
b) la redundancia del sistema.
Los requerimientos para la sincronización de tiempo
quedan cubiertos con el uso del protocolo SNTP
(simple network time protocol) con estrictas exigencias
establecidas en el estándar IEEE 1588 [2]; y en relación
a la redundancia del sistema la segunda edición de la
norma IEC 61850 incluye dos protocolos que cumplen en
su totalidad con los requerimientos y que son aplicables
135
a subestaciones de cualquier tamaño y topología: PRP
(Parallel Redundancy Protocol) y HSR (High-availability
Seamless Redundancy), estos protocolos proveen un
tiempo de cero = no interrupción en la conmutación por
falla de enlaces o dispositivos de la red.
3.1. Redundancia
En una subestación, la comunicación de la red
Ethernet industrial de datos y sus componentes es de vital
importancia para la operación de todos los elementos,
demandando requerimientos exigentes y distintos
de tiempo para el nivel de supervisión del bus de la
subestación y el bus de proceso, los mismos que definen
los requerimientos de redundancia en la topología de red
a implementar. El funcionamiento de la redundancia en
toda la red debe ser chequeado periódicamente desde un
nodo de operación de la red con frecuencias menores a 1
minuto al igual que los errores de configuración.
3.1.1 Métodos de Redundancia
Redundancia Dinámica (standby o serial): Esta
redundancia no participa de forma activa en el control,
sino una conmutación lógica es quien decide insertar la
redundancia y ponerla en funcionamiento. La Tabla 1
muestra las principales características de éste método.
Redundancia Estática (activa o paralela): Esta
redundancia participa de forma activa en el control, la red
escoge el elemento operativo en que confiar. La Tabla 1
muestra las principales características de este método [3].
Tabla 1: Métodos de Redundancia
3.2. Topología de red de Alta Disponibilidad
Parámetros como la confiabilidad y disponibilidad
son determinantes en la definición de una red de alta
redundancia y desempeño. La disponibilidad es la
fracción de tiempo de operación o estado "activo" de
un sistema, se expresa en porcentaje que representa
el “ciclo de trabajo" o capacidad de operación del
sistema, por ejemplo, 99,99%.
La disponibilidad de un sistema se incrementa con
la implementación de esquemas de redundancia, se
consideran la inserción automática de redundancia
ante fallas (sistemas tolerantes a fallas) y la reinserción
automática después del restablecimiento, siendo el
retardo de conmutación para el restablecimiento el
factor más limitante en los sistemas tolerantes a fallas.
3.3. Requerimientos de Tiempo en una SE
En una red redundante el parámetro más importante
es el tiempo de restablecimiento requerido para
normalizar la operación después de un evento de
falla, en este sentido los protocolos PRP y HSR
garantizan un tiempo “cero = no interrupción” para
este restablecimiento
El tiempo en el cual la subestación tolera una salida
del sistema de automatización se denomina “tiempo
de gracia”, para instalaciones eléctricas el tiempo de
gracia es de 5 mseg, los tiempos de restablecimiento
de la red deben ser menores a este tiempo de gracia.
La Tabla 2 resume los tiempos de restablecimiento
dados por el Comité Técnico IEC 57 (TC57) – grupo
de trabajo 10 (WG10).
Tabla 2: Requerimientos de Tiempos de Restablecimiento
136
estas dos redes están separadas a fin de asegurar
independencia ante fallas pudiendo tener topologías
diferentes y no solo de anillo, ambas redes operan en
paralelo como se ejemplifica en la Fig. 4.
4. PROTOCOLOS DE COMUNICACIONES
4.1. RSTP (Rapid Spanning Tree Protocol)
4.1.1 Arquitectura
El protocolo Rapid Spanning Tree se usa en
topologías donde se cuenta con enlaces redundantes,
y su funcionamiento principal es evitar los lazos
dentro de la red. Un lazo dentro de una red Ethernet se
presenta cuando se tiene una doble conexión entre dos
switches, la presencia de un lazo dentro de la red hace
que el tráfico no tenga salida y se vaya incrementando
rápidamente hasta saturar y bloquear los switches
y demás equipos que conforman la red, para evitar
este fenómeno el protocolo RTP activa solo una de
las dos conexiones. La topología en la que puede ser
empleado RSTP es estrella o anillo.
4.1.2 Modo de Operación
El Protocol Spanning Tree maneja varios conceptos
que le permiten determinar el camino para enviar
la información y el camino de respaldo. Cuando se
cuenta con un par de conexiones la decisión es simple,
sin embargo, cuando el número de switches y enlaces
aumenta la decisión del camino principal y redundante
requiere realizar cálculos y tomar decisiones las
cuales se manejan a través del protocolo. El análisis
que realizan los switches para la definición de los
caminos de transmisión requiere de algunos segundos
en el caso del protocolo STP, el protocolo RSTP
presenta mejoras al STP de tal forma que el tiempo de
definición o estabilización se reduzca.
Cuando uno de los switches de la red falla, se
requiere detectar la falla y reconfigurar los caminos
de configuración. Esta función se realiza enviando
mensajes a los equipos que conforman la red para
detectar cual es el enlace con problemas y realiza
la reconfiguración. El tiempo de establecimiento
para RSTP puede estar en el orden de 5 ms por cada
switch Ethernet que conforma la red, dependiendo
del número de equipos con que cuente la red esta
recuperación puede tomar varios segundos. El detalle
de la operación del protocolo se encuentra en [4].
4.2. PRP (Parallel Redundancy Protocol)
4.2.1 Arquitectura
Figura 4: Arquitectura de Red Redundante PRP
La red PRP se compone de nodos DANP (doubly
attached node with PRP) y SAN (simple attached
node); los nodos DANP se conectan a las dos redes
LAN independientes operando de forma paralela
por éstas, es decir que los equipos requieren de dos
puertos Ethernet para el uso del protocolo PRP; en
tanto que los nodos SAN (no-PRP) o nodos simples
de conexión (ejemplo: ordenadores, impresoras, etc.)
se conectan a una de las redes teniendo comunicación
únicamente con los dispositivos DANP o SAN de esa
misma red. En caso de requerirse redundancia para los
nodos SAN se debe utilizar un equipo de adaptación
denominado RedBox que gestiona los protocolos
redundantes. La Fig. 5 muestra el esquema de
operación de este protocolo.
4.2.2 Modo de Operación
Una red PRP establece dos caminos activos
independientes para la conexión entre dispositivos [5].
En una red PRP los nodos DANP usan los dos puertos
para el envío simultáneo de las tramas Ethernet por
ambas redes usando retardos de transmisión diferentes
para cada una de las redes, e incluyendo la información
necesaria para asegurar el adecuado tratamiento de
las mismas (número de secuencia, identificadores de
redundancia, etc.). En condiciones libres de errores,
los nodos destino toman la primera trama recibida y
descartan los duplicados, en caso de recibir una sola
trama se determina la ocurrencia de una falla en una
de las redes, manteniéndose la comunicación por la
segunda red.
Este protocolo establece un nivel de redundancia
basado en una topología compuesta por dos redes
de área local (LANs) independientes y paralelas;
137
no requiere de dos switches, sin embargo todos los
nodos del anillo deben ser nodos de conmutación que
dispongan de dos puertos integrando un elemento de
conmutación preferentemente de hardware.
Es posible establecer enlaces entre dos anillos HSR
con el uso de elementos de conexión denominados
QuadBoxes, estos permiten la conexión entre dos
HSR sin un solo punto de falla, como muestra la Fig.6
Figura 5: Modo de Operación PRP
El PRP garantiza tiempos de “cero = no interrupción”
en el restablecimiento de comunicaciones de la red
ante fallas y un chequeo continuo de la redundancia
de la red que disminuye la ocurrencia de fallas,
basándose en el uso de los nodos dobles PRP (DANP)
conectados a ambas redes para garantizar el nivel
de disponibilidad requerido. Los nodos chequean y
detectan duplicaciones con secuencias numéricas que
se introducen en las tramas después del paquete de
información “payload”, esto permite una transparencia
total de nodos PRP y NO PRP. El protocolo PRP
puede ser ejecutado de forma completa vía software.
La falla de nodos no está cubierta por el PRP, pero los
nodos duplicados pueden ser conectados vía red PRP.
EL PRP es implementado en los dispositivos
terminales, por lo cual es posible utilizar switches de
red convencionales que no requieren conocer de este
protocolo.
4.3. HSR
(High-availability
Redundancy)
Seamless
Figura 6: Arquitectura red redundante HSR
4.3.1. Modo de Operación
Para cada trama enviada, un nodo DANH envía dos
tramas una sobre cada puerto, ambas tramas circulan
en direcciones opuestas sobre el anillo y cada nodo
reenvía las tramas que recibe desde uno de los puertos
hacia el otro. Cuando el nodo originario recibe una
trama enviada por él mismo la descarta para evitar
lazos, es así que no es necesario un protocolo especial
de anillo, como se muestra en la Fig. 7.
4.3.1 Arquitectura
El protocolo HSR es producto del desarrollo de PRP,
sin embargo las funciones de HSR principalmente
son las de un protocolo que crea medios redundantes,
mientras que PRP crea redundancia de la red. HSR
a diferencia del PRP está básicamente diseñado para
el uso de topologías de anillo, en ambos protocolos
se utilizan dos puertos de red, pero HSR incorpora
el nodo DANH (Doubly Attached Node for HSR)
que conecta sus dos interfaces a una misma red
conformando una topología de anillo como se muestra
en la Fig. 6
El protocolo HSR aplica los principios de
operación paralela del PRP sobre un anillo simple,
tratando las dos direcciones de cada dispositivo
como dos redes LAN virtuales, esto permite una
reducción significativa en costos de hardware ya que
138
Leyenda Figura 7
Figura 7: Modo de Operación HSR
Para detectar duplicaciones las tramas Ethernet
incluyen una secuencia numérica incrementada por
la fuente de cada trama enviada, contrariamente al
PRP, la secuencia numérica se inserta en la cabecera
y no después del paquete de información “payload”,
así el elemento de conmutación puede reconocer
la duplicación antes de recibir completamente una
trama, de esta manera son posibles operaciones de
“cut-through” o reenvío sin necesidad de recepción
de una trama completa en tiempos menores a 5 useg
por nodo.
Al usar un anillo simple el tráfico de bus casi se
duplica, pero el promedio de tiempo de propagación
se reduce permitiendo al anillo soportar un número
similar de dispositivos que un anillo redundante.
Adicionalmente nodos simples (SAN) como laptops
e impresoras solo pueden conectarse al anillo usando
una caja de redundancia que les permite actuar como
un elemento del anillo.
En cuanto a tiempos de conmutación, HSR se
comporta como PRP: enviando tramas desde ambos
puertos de una conexión HSR, en el caso de ocurrir
una falla una trama continuará siendo transmitida
a través de cualquier camino disponible de la red,
esto significa que la redundancia funciona con
tiempo de conmutación cero y, a diferencia de PRP,
no requiere dos redes paralelas. Se debe considerar
que la transmisión duplicada de tramas por ambas
direcciones implica que sólo el 50% del ancho de
banda de la red está efectivamente disponible para el
tráfico de datos.
el protocolo PRP cuenta con el 100% del ancho de
banda disponible en cada enlace a diferencia de los
otros dos protocolos.
5.1. Ventajas RSTP:
• RSTP utiliza una red simple para la conexión
de nodos.
• Tolera la falla de cualquier componente simple
de red (con un tiempo relativamente corto de
indisponibilidad de la red)
• No depende de protocolos de capa superior
• Esta altamente difundido en el mercado,
existen varios fabricantes que utilizan este
protocolo en sus equipos de red
• Es un protocolo probado en subestaciones a
nivel mundial
• Implementación económica.
5.2. Desventajas RSTP:
• Ante fallas en la red la reconfiguración puede
tomar varios segundos; en casos extremos.
• No cumple con los niveles de disponibilidad
requeridos en las subestaciones, durante la
reconfiguración por falla o inicio de equipos.
• Tiene un número máximo de equipos que
pueden formar parte de la red
5.3. Ventajas de PRP
5. COMPARACIÓN DE PROTOCOLOS RSTP,
PRP Y HSR
La elección del protocolo de protección utilizado
en de la red Ethernet depende de varios factores entre
los principales: la disponibilidad establecida para la
subestación, el presupuesto, la escalabilidad a futuro,
entre otras. En la Tabla 3 se presenta una comparación
de varias características que deben ser analizadas para
la elección de uno y otro protocolo de protección.
De esta comparación se puede destacar que los
protocolos HSR y PRP permiten contar con un
mayor nivel de disponibilidad, y no presentan tiempo
de recuperación ante la presencia de alguna falla
en un enlace. La habilitación del protocolo PRP es
la de mayor costo. Y el RSTP es el de más difusión
en el mercado. El crecimiento de la red es más fácil
de implementar cuando se utilizan protocolos PRP
y HSR, así también el protocolo RSTP no requiere
de una fuente de sincronismo, a diferencia de los
otros dos protocolos. Por último se debe notar que
139
• PRP permite la conmutación sin interrupciones
(tiempos cero) y sin pérdida de tramas; lo cual
lo hace adecuado para la mayoría de sistemas
de tiempo crítico.
• Puede usarse en variedad de topologías de red:
anillo, estrella, etc.
• Cumple con todos los requisitos de
automatización de subestaciones de acuerdo a
la norma IEC 61850.
• Tolera fallas de cualquier componente simple
de red.
• No depende de protocolos de capa superior.
• Es compatible con RSTP
• Permite el uso de nodos (SAN) que no están
equipados para redundancia, que pueden
operar en la misma red.
• Puede usarse fuera de la plataforma
de componentes de red: herramientas,
controladores, switches y enlaces.
• Soporta precisión para la sincronización de
tiempo de acuerdo con la IEEE 1588.
• Es un protocolo probado para subestaciones de
alta tensión.
• Es transparente para la aplicación.
• PRP reduce la tasa de pérdidas durante su
operación normal.
• Usa métodos de chequeo periódico de nodos,
que le permite identificar los nodos que
participan y no en el protocolo
Tabla 3: Comparación de protocolos
5.4. Desventajas de PRP
• Duplicación de costos en la red
• Los nodos simples (SAN) de una red LAN no
pueden comunicarse directamente con nodos
SAN de otra LAN.
• El tamaño de trama debe ser limitado para
prevenir que se conviertan en tramas más
largas que las máximas establecidas en IEEE
802.3
5.5. Ventajas de HSR
• HSR usa una red simple para la conexión de
nodos.
• HSR es un protocolo transparente adecuado
para aplicaciones críticas, costos eficientes.
• HSR permite la conmutación sin interrupciones
con tiempos de conmutación cero y sin pérdida
de tramas; lo cual lo hace adecuado para la
mayoría de sistemas de tiempo crítico.
• Cumple con todos los requisitos de
automatización de subestaciones de acuerdo a
la norma IEC 61850.
• Tolera la falla de cualquier componente simple
de red.
• No depende de protocolos de capa superior.
• Es compatible con RSTP y PRP
• Permite el uso de nodos (SAN) que no están
equipados para redundancia, que pueden
operar en la misma red.
• Soporta precisión para la sincronización de
tiempo de acuerdo con la IEEE 1588.
• Es un protocolo probado para subestaciones de
alta tensión.
• HSR chequea la presencia de nodos usando
supervisión periódica de tramas que también
identifican los nodos que participan y no en el
protocolo
6. CONCLUSIONES Y RECOMENDACIONES
La norma IEC 61850 demanda ampliar los
conceptos eléctricos utilizados hasta ahora para la
puesta en marcha de una subestación, integrando
conceptos que en la actualidad se utilizan en gran
medida y que están relacionados con las ramas de
telecomunicaciones, redes e informática.
Los protocolos PRP y HSR permiten la conmutación
sin interrupción ante la falla de un elemento simple de
la red, esto permite que la disponibilidad global de la
subestación se incremente.
La implementación del protocolo PRP requiere
la habilitación de una red totalmente redundante,
convirtiendo esta solución en una opción costosa, y
resultando HSR más conveniente.
La elección de uno u otro protocolo de protección
depende de varios factores, entre estos la disponibilidad
requerida para la subestación, el presupuesto,
existencia de equipos que cumplan los protocolos,
etc., no es necesario que todas las subestaciones
manejen el mismo protocolo de protección.
Los esquemas PRP y HSR representan un reto para
la sincronización de tiempo debido a que los retardos
sobre las dos redes redundantes son diferentes y
demandan la mejora de la robustez y precisión del
reloj del sistema.
REFERENCIAS BIBILIGRÁFICAS
5.6. Desventajas de HSR
• Solo soporta topología de red en anillo, y
anillos de anillos.
• Dispositivos doblemente conectados requieren
un desarrollo inicial con costo (hardware)
• Para la conexión de nodos simples, SAN, se
debe usar un dispositivo de conexión adicional:
“RedBoxes”
140
[1] Liang Y. & Campbell R. (2009), “Understanding
and Simulating the IEC 61850 Standard”,
Department of Computer Science University
of Illinois at Urbana-Champaig, pp 1-5.
[2] McDonald, J. “Substation automation. IED
integration and availability of information”.
(2003), Power and Energy Magazine, pp 22–
31.
[3] Kirrmann H. (2012), “Highly Available
Automation Networks Standard Redundancy
Methods” ABB Switzerland Ltd, Corporate
Research.
[4] Oñate E. “Rapid Spanning Tree Protocol
Shortest Path, extension a RSTP” Universidad
Técnica Federico Santa María, pp. 1-6.
[5] Kirrmann H. (2012), “Seamless Redundancy”,
ABB Switzerland Ltd, Corporate Research,
pp. 55-61.
Ana
Francisca
Zurita
Zaldumbide.- Nació en Quito,
Ecuador en 1980. Recibió su
título de Ingeniera en Electrónica
y Telecomunicaciones de la
Escuela Politécnica Nacional en
el año 2004. Es egresada de la
Maestría en Redes y Networking
de la Universidad Católica de Quito, y su campo de
investigación se encuentra relacionado con temas de
telecomunicaciones para el sector eléctrico.
Gioconda Guanacaury Rodríguez
Pazmiño.- Nació en Quito,
Ecuador en 1974. Recibió su
título
de
Ingeniera
en
Telecomunicaciones del Instituto
Superior Politécnico José Antonio
Echeverría, de la ciudad de La
Habana, Cuba en el año 1998, y
su campo de investigación se
encuentra
relacionado
con
temas
de
telecomunicaciones para el sector eléctrico.
141
Operación Remota de la Distribución basada en la Supervisión y Control
remotos de Reconectadores
C. E. Landázuri
Empresa Eléctrica Regional Centro Sur C. A.
Resumen— Una de las tareas históricas de la
Operación de los sistemas eléctricos de distribución
ha sido garantizar la continuidad y calidad del
suministro de energía eléctrica. La tendencia
de los años recientes ha sido aprovisionar las
redes de distribución con equipos de maniobra
y protección “inteligentes” con funcionamiento
autónomo pero aislado. Los Centros de Control,
con sus componentes tales como los SCADAs, han
sido otro pilar en la optimización de la Operación.
Actualmente, con el apoyo de las nuevas tecnologías
de la Informática y las Telecomunicaciones, el
siguiente paso, casi obligatorio, es articular estas
dos herramientas en una solo instrumento para
la Operación de la Distribución. Esta integración
puede no ser sencilla. Factores como la ubicación
de los equipos de maniobra y protección, los
sistemas de supervisión y control disponibles, el
grado de avance de las telecomunicaciones, influyen
en la adopción de la solución más apropiada. Es
decir, la realidad de cada Sistema Eléctrico de
Potencia condiciona fuertemente la adopción de la
plataforma de control y automatización de dichas
redes. La solución sugerida en el presente trabajo
se enfoca como una guía general para la aplicación
en la mayoría de realidades. El caso práctico
de éxito de una empresa distribuidora del país
confirma la premisa.
Palabras claves— Operación, Distribución,
SCADA, Reconectadores, Telecomunicaciones.
Abstract— One of the historical operation tasks
of electric power distribution systems has been
to guarantee electric power supply quality and
continuity. The trend in recent years has been
to provide distribution networks with “smart”
protection and switching equipment, which
works in an automated and isolated manner. The
Control Centres, with their components such as
SCADA, have been another pillar of Operation
Optimization. Currently, with the support of
new Information and Telecommunications
Technology, the new and almost compulsory step
is to combine these tools into a single Distribution
Operation instrument. Such integration might
not be easy. Factors such as protection and
switching equipment location, available control
and supervision systems, and telecommunications
development, all influence the adoption of the most
appropriate solution. This means that the reality
of each Electric Power System strongly influences
the control and automation platform for such
networks. The solution proposed in this paper acts
as a guideline for application in the majority of
current situations. The success story of one of the
Ecuador’s distribution companies confirms this
premise.
Index Terms— Operation, Distribution, SCADA,
Reclosers, Telecommunications
1. INTRODUCCIÓN
Una de las preocupaciones permanentes de las
empresas eléctricas de Distribución es la planificación
e implantación de programas para la mejora continua
de los índices de calidad del producto (FMIK y TTIK),
y que esta mejora se vea reflejada en el cumplimiento
de las expectativas tanto de los clientes como del
órgano regulador.
Con los crecientes avances de las áreas
tecnológicas (especialmente de la Informática y las
Telecomunicaciones), se ha desplegado un abanico
extenso y variado de oportunidades de mejora de los
procesos de distribución y comercialización de la
energía eléctrica.
Específicamente en el ámbito de la gestión y
operación de las redes eléctricas existe un potencial
enorme de evolución y hace falta solo un impulso para
desbocar todo ese potencial. La introducción de la
tecnología en la operación de los sistemas eléctricos
de potencia puede ser ese impulso.
Con este marco de referencia en mente, las
empresas eléctricas de Distribución deben apostar por
la introducción de mejoras tecnológicas en sus redes
de distribución de media tensión y la implantación de
sistemas para supervisión, control y automatización
(centralizado o distribuido) de dichas redes. Estos
142
elementos permiten hacer más eficiente la operación
de los sistemas eléctricos, reduciendo por un lado la
cantidad de interrupciones del servicio, y por otro
lado mejora los tiempos de restablecimiento de éste,
además de la cantidad de información que aportan
para el modelamiento y planificación de los sistemas
eléctricos.
Como se puede esperar, los caminos son
diversos, pero en el tiempo la mayoría convergen en
soluciones tipo SCADA (Supervisory Control and
Data Acquisition), DMS (Distribution Management
System), OMS (Outage Management System) y otros
sistemas complementarios para la gestión y operación
de las redes eléctricas. Dado el grado de madurez de
estas plataformas, se han constituido en soluciones
altamente probadas y aceptadas entre las empresas
de distribución. Todo este conjunto de sistemas
junto con el equipamiento inteligente de las redes
eléctricas y redes de telecomunicaciones adecuadas
nos llevan a la Automatización de la Distribución (DA
– Distribution Automation).
El próximo horizonte, no muy lejano, luce
desafiantemente la consolidación de las Redes
Inteligentes “Smart Grids”.
Generalmente el primer paso es la implantación de un
sistema SCADA. Este sistema colecta la información
de campo, particularmente de subestaciones eléctricas,
y la procesa de forma centralizada, usualmente en un
Centro de Control, para que un operador pueda tomar
decisiones operativas sobre el sistema eléctrico de
potencia.
Los otros sistemas, como DMS y OMS, se pueden ir
agregando sobre la base constituida por el SCADA (a
manera de un modelo de capas), para ir ensamblando
una plataforma más completa y compleja.
Indiscutiblemente, el camino más corto sería
implantar toda la solución de una sola vez. Pero
requiere que las empresas estén bien preparadas, tanto
en infraestructura, equipamiento y talento humano.
Lo recomendable es que exista el asesoramiento y
acompañamiento de entidades o profesionales con
mayor experticia.
La plataforma SCADA debe soportarse sobre
una arquitectura robusta de adquisición y control
de información, conformada por dispositivos que
están prácticamente en contacto directo con los
elementos de campo que se pretende monitorear, y
que históricamente han estado circunscritos dentro
de las subestaciones eléctricas (transformadores de
potencia, interruptores, seccionadores, etc.).
El escenario del presente trabajo se enmarca dentro
de esta arquitectura o plataforma que sustenta el
SCADA, y pretende encontrar y plantear una solución
efectiva para el manejo y la expansión de la operación
remota de las redes de distribución de media tensión,
mediante el telecontrol de reconectadores.
2. ALCANCE
La presente investigación expone una guía
fundamental y esquematiza una solución general para
implantar un sistema para la operación remota de una
red de distribución bajo el escenario de que ésta se
encuentra elementalmente equipada con dispositivos
“inteligentes” de protección y maniobra, como
reconectadores.
Como caso práctico de éxito se expondrá la
experiencia de una de las empresas Distribuidoras del
país en el telemando de reconectadores basado en las
ideas explicadas en este documento.
3. REDES
DE
DISTRIBUCIÓN
CON
RECONECTADORES: ESCENARIO BASE
Como estrategia para mejorar la confiabilidad de
los sistemas eléctricos de media tensión y elevar su
grado de protección ante fallas se ha hecho práctica
común la instalación de equipos de protección con
reconexión automática en las redes de distribución,
conocidos comúnmente como reconectadores. Este
es un dispositivo de control y protección capaz de
detectar una sobrecorriente, interrumpirla y reconectar
automáticamente para reenergizar la línea. Por lo tanto
son equipos de flexibilización de la red, que permiten
proteger circuitos aéreos de media tensión de forma
que ante una falla (corto circuito, sobrecarga, etc.) no
se vea afectada la integridad física de la red eléctrica.
El procesamiento lógico o “inteligencia” de estos
reconectadores yace generalmente en un elemento
independiente al equipo de potencia, que procesa las
funciones de control, protección y comunicación.
Para el presente trabajo es de interés particular las
funciones de comunicación, ya que son las que facultan
al reconectador, mediante un “leguaje lógico”, a
intercambiar información con otros sistemas.
Esta circunstancia sugiere un escenario
absolutamente ventajoso para extender las habilidades
de operación centralizada de un Centro de Control a
las redes equipadas con reconectadores.
143
4. ETAPAS DE INVESTIGACIÓN
Procurando los mejores resultados del estudio, la
investigación se esquematizó en las siguientes
fases:
• Análisis del entorno: Identificación de las
necesidades y todos los elementos involucrados
en el desarrollo de la investigación.
• Consideraciones Técnicas: Evaluación de los
criterios técnicos-teóricos a considerar para el
diseño de la solución más óptima.
• Solución y Aplicación Práctica: Diseño de la
solución y exposición de un caso práctico de
éxito.
4.1. Análisis del entorno
Para el inicio del estudio se establecerán
las condiciones elementales que una empresa
distribuidora debe tener. Considerando los criterios
de la sección (3), el análisis es abordado desde tres
elementos fundamentales en la Operación basa en
reconectadores:
CENTRO DE
CONTROL
TRANSPORTE
DE DATOS
RECONECTADORES
Figura 1: Elementos para operación de una red de
distribución (equipada con reconectadores)
Este esquema sintetiza los bloques funcionales
para la operación de la media tensión a través de
reconectadores.
4.1.1 El Centro de Control
El Centro de Control es el conjunto de instalaciones
(infraestructura, equipamiento, personal, etc.) donde
se centraliza la operación y gestión de un sistema
eléctrico. Una de las plataformas fundamentales para
el funcionamiento de un Centro de Control es un
sistema SCADA.
Los sistemas SCADA permiten recolectar variables
de campo y presentarlas a través de una Interface
Humano-Máquina.
Generalmente las empresas
eléctricas utilizan su SCADA para supervisar las
subestaciones eléctricas. Dado el alto costo de estos
sistemas, invertir en un SCADA para operación
exclusiva de reconectadores no es viable. Lo óptimo
es aprovechar los recursos disponibles de los sistemas
existentes (que generalmente están dimensionados
para un amplio crecimiento), unificando además en
una sola plataforma la operación de la subtransmisión
y la distribución (al menos en la primera “capa”
SCADA).
Por estas razones, y para fines prácticos en nuestro
estudio, se partirá de la premisa de la existencia de
sistemas SCADA en los Centros de Control.
Respecto de los protocolos de telecontrol, los
SCADA manejan varios formatos de tramas, pero
entre las más usadas están el IEC60870-5-101/104 y
el DNP3. Estas tramas pueden ajustarse a diferentes
tecnologías de transporte de datos.
4.1.2 Sistemas de Telecomunicaciones
Automatización y Telecontrol
para
Una
apropiada
infraestructura
de
Telecomunicaciones juega un rol estratégico para
el éxito de los esquemas de Automatización y
Telecontrol de la Distribución. Así, la operación
remota de reconectadores requiere de una adecuada
red de telecomunicaciones para el transporte de
datos desde el SCADA hacia los equipos en campo
y viceversa. Las redes de telecomunicaciones usadas
deben garantizar una alta disponibilidad mayor al
98%, excelentes tiempos de respuesta (latencia),
seguridad, y buen ancho de banda. La tendencia es
contar con redes IP para el transporte de los datos por
su ubicuidad y su relativo bajo costo, sin embargo este
tipo de redes puede presentar colisiones y congestión
en momentos en los que se presentan avalancha de
datos. Es aquí donde las redes de telecomunicaciones
tienen el reto de ser lo suficientemente inteligentes
para permitir la priorización de los datos importantes
(por ejemplo datos de tiempo real) y retardar el envío
de los datos menos importantes (por ejemplo datos no
operativos como los diagramas de oscilografía).
La elección de la tecnología adecuada es una tarea
que depende de muchos factores, y en la mayoría de los
casos siempre habrán varias opciones elegibles. Desde
factores internos, como la economía de cada empresa
eléctrica, sus objetivos institucionales, la experticia
de sus técnicos, hasta externos como el grado de
penetración de las empresas de telecomunicaciones,
la cobertura y tecnología de las operadoras móviles,
etc., aportan criterios válidos para la selección.
Sería tema de otro estudio la elección adecuada, y
en ningún caso se podría generalizar totalmente para
una realidad nacional, de forma que nos limitaremos
a exponer un caso práctico para una de las empresas
Distribuidoras del país.
144
4.1.3 Reconectadores
De acuerdo a los criterios de la sección (3),
partiremos de la necesidad de tele operar una
red de distribución de media tensión equipada
principalmente con reconectadores. Sin embargo
los principios de funcionamiento de la solución son
igualmente válidos y aplicables para un sistema
de distribución más complejo que tenga switches,
bancos de condensadores, reguladores de tensión,
indicadores de falla, equipos de medición, etc.
Los reconectadores debe cumplir básicamente
el requisito de poseer funciones de comunicación
mediante algún protocolo interpretable y asimilable
por el SCADA. Generalmente el elemento con la
circuitería electrónica que maneja las funciones de
control y protección del reconectador también maneja
sus funciones de comunicación. Los protocolos que
deben estar disponibles, para la mayoría de sistemas
abiertos, son el IEC60870-5-101/104 o DNP3. En
ciertos equipos ya se está empezando a implementar
el protocolo IEC61850.
Algunos fabricantes proporcionan una solución
completa y compacta que incluye dispositivos de
telecomunicaciones propietarios dedicados. Estas
soluciones por lo general son muy específicas y no
son compatibles con redes de telecomunicaciones que
manejan estándares abiertos. Sin embargo, dada la
confiablidad y nivel de integración que garantiza el
fabricante, pueden ser aplicables para casos prácticos
particulares, tales como pequeños esquemas de
automatización no centralizados.
En general, para una solución integral de
telecontrol y automatización, se recomienda analizar
exhaustivamente el sistema de telecomunicaciones
a utilizar antes de solicitar que los reconectadores,
u otros equipos, incluyan los dispositivos de
telecomunicaciones. Se debe considerar además que
los reconectadores desplegados sobre una red de
distribución pueden ser de distintos fabricantes.
4.2. Consideraciones técnicas para el diseño de la
solución
Los sistemas SCADA utilizan protocolos de
comunicación para intercambiar información
con los equipos de campo y crear secuencias de
automatización. Estos protocolos cumplen entonces
la función de establecer un “lenguaje común” entre
los dispositivos, que permita el envío de información
exacta y unívocamente interpretable.
Gran parte de la carga de procesamiento de los
equipos informáticos de un SCADA está relacionada
con la adquisición de datos. La adquisición se
realiza mediante exploraciones o interrogaciones
periódicas de todos los dispositivos (esclavos)
conectados directamente al SCADA (maestro).
Estas interrogaciones son realizadas mediante los
protocolos de comunicación. En algunos casos,
y dependiendo del protocolo, la información es
adquirida mediante mensajes “espontáneos” (sin
necesidad de una petición del SCADA) enviados por
parte los dispositivos esclavos.
Consideremos aquí dos factores críticos:
• A mayor cantidad de dispositivos de campo
conectados a un SCADA, mayor será el
tiempo para completar un ciclo entero
de interrogaciones, y mayor la carga de
procesamiento de información.
• El SCADA y el dispositivo de campo deben
utilizar el mismo protocolo de comunicación
para un intercambio efectivo de datos.
Dependiendo de los recursos informáticos del
SCADA, el primer factor puede no ser crítico. Sin
embargo, desde el punto de vista de una arquitectura
jerárquica, los dispositivos que interactúan
directamente con las variables de campo (tales
como los IEDs – Intelligent Electronic Devices) no
deben estar integrados directamente a un SCADA.
Por ejemplo, en el caso de subestaciones, los IEDs
establecen comunicaciones verticales con un
concentrador local (ubicado en la misma subestación)
para que entonces éste reenvíe la información hacia
el SCADA, con lo cual se establece una jerarquía
SCADA – Concentrador - IED. En sistemas actuales
basados en IEC61850 los IEDs también pueden
ejecutar comunicaciones horizontales peer-to-peer,
generalmente para ejecución de enclavamientos.
Por otro lado, si el SCADA está limitado respecto
de los tipos de protocolos que puede interpretar, se
producirá un conflicto de “leguaje” entre éste y los
dispositivos de campo si no manejan exactamente el
mismo protocolo. Esta situación puede ser superada
con el uso de un dispositivo “interprete” que traduzca
de un protocolo a otro.
4.3. Diseño de la solución
La operación remota de un sistema de media tensión
equipado con reconectadores requiere esencialmente
la integración de éstos equipos al sistema SCADA del
Centro de Control. En función del análisis del entorno
145
realizado en la sección (4.1) y teniendo en cuenta las
consideraciones técnico-teórico de la sección (4.2), se
sintetizaron las siguientes directrices para el diseño de
la solución del sistema:
• Se asumirá la existencia de una plataforma
SCADA en el Centro de Control, que se
utilizará para el procesamiento (adquisición y
control, base de datos, IHM) de la información
de los reconectadores.
• Para mantener un diseño general que sea
aplicable a la mayoría de los entornos de
adquisición y control, se introducirá un sistema
intermedio (entre SCADA y reconectadores)
para realizar la concentración de datos y la
traducción de protocolos. Para referencia en
adelante se dará la denominación de Gateway
a este sistema. El Gateway garantizará la
interoperabilidad entre los reconectadores
y el sistema SCADA, independientemente
del tipo o fabricante de reconectadores y
de la plataforma SCADA. Además liberará
al SCADA de la carga de interrogar y
concentrar a decenas de dispositivos dispersos
geográficamente.
• El Gateway asumirá la responsabilidad
de manejar las comunicaciones con los
reconectadores, indistintamente de la
tecnología de la red de telecomunicaciones
utilizada.
• El sistema de telecomunicaciones para el
transporte de datos reconectadores – SCADA
no puede ser definido de forma genérica dada
la gran cantidad de opciones perfectamente
apropiadas y la dependencia de un sinnúmero
de factores particulares para cada realidad.
Sin embargo, se recomienda en forma general
procurará que la red de telecomunicaciones
sea primordialmente de tecnología TCP/IP.
• Los reconectadores deben estar preparados, o
en su defecto adecuarse, para su interconexión
a la red de telecomunicaciones utilizada.
Sobre la base de estas directrices, la arquitectura
general de un sistema para integración SCADA de
reconectadores (u otros dispositivos) de una red de
media tensión, debe ser como la que se ilustra en la
Fig. 2.
Figura 2: Arquitectura General de un Sistema para
Telecontrol de Reconectadores
La arquitectura plantea la comunicación entre
el SCADA y los reconectadores a través de un
dispositivo Gateway que actúa como maestro frente
a los reconectadores (esclavos), y al mismo tiempo
actúa como esclavo frente al SCADA (maestro). El
Gateway interpreta el protocolo de comunicación
usado por sus esclavos (reconectadores u otros
dispositivos), tal como DNP3 o IEC60870-5-101/104,
y luego “mapea” los mensajes al protocolo utilizado
con el sistema SCADA, ejecutando de esta forma
la traducción entre los protocolos. Además, al
encargarse de las interrogaciones, el Gateway libera
al SCADA de la responsabilidad de procesar uno
por uno la información de los reconectadores. En su
lugar, el SCADA interroga y procesa los datos de un
solo elemento, en este caso el Gateway, que contiene
la información de todos los reconectadores. Esta
característica proporciona al Gateway la función de
concentrador.
El sistema es independiente de la red de
telecomunicaciones utilizada entre los reconectadores
y el Gateway, pudiendo ser microonda, fibra óptica,
GSM/GPRS, etc., siempre que proporcione la
información en formato TCP/IP.
4.4. Aplicación práctica: Operación a distancia
de la red de media tensión de la Empresa
Eléctrica Regional Centro Sur
La Empresa Eléctrica Regional Centro Sur es una
empresa de distribución y comercialización de energía
eléctrica, cuya área de concesión cubre los territorios
de las provincias del Azuay, Cañar y Morona Santiago.
El sistema de media tensión de Centro Sur está
conformado por alimentadores a 22 kV y 6,3 kV
equipados con 17 reconectadores tripolares OVR
de la marca ABB, y está en curso la instalación de
146
58 equipos tripolares, suministrado por la firma
SIEMENS, y 10 equipos monopolares de la firma
NOJA.
Tabla 1 : Característica de reconectadores para
Automatización
Los tres tipos de reconectadores poseen el protocolo
DNP3 para integración SCADA.
4.4.1 Alcance del proyecto
Característica
para
automatización
Mediante la aplicación de la arquitectura modelo
propuesta en la sección (4.3), la Centro Sur logró
implantar un esquema de operación remota de su red
de media tensión mediante el tele control y supervisión
de sus diferentes tipos de reconectadores. El sistema
permite a los operadores del Centro de Control
interactuar en tiempo real, a través de una Interfaz
Humano-Máquina, con las principales variables de los
reconectadores, permitiendo realizar la supervisión de
esta información y el control a distancia del equipo.
Controlador
Interfaces de
comunicación
Este SCADA utiliza el protocolo de telecontrol
IEC60870-5-101 encapsulado sobre TCP/IP para
interrogación de la información hacia los equipos
remotos.
PCD Power
ControlerDevice
3AD Siemens
Argus 7SR224
Puerto posterior
COM2a R232/
RS485/FO con
DNP3
Puerto posterior
COM3 RS232 con
DNP3
Puerto frontal
RS232 para
telegestión
Puerto posterior
COM1 RS485 para
telegestión
Puerto Ethernet RJ45
con COM3 y COM2
encapsuladas
4.4.2 Centro de control
El Centro de Control está ubicado en la ciudad
de Cuenca, y está equipado con la solución
SCADA Sherpa de la firma ELIOP (aunque está
previsto en el 2014 realizar la renovación de este
sistema). Originalmente el sistema supervisaba doce
subestaciones eléctricas.
OVR ABB
Fuente AC
No
110 VAC 400 W
Fuente DC
12 VDC 10 W
No disponible para
equipos externos
4.4.4 Las Telecomunicaciones en Centro Sur
La estructura de la red se está conformada por 196
nodos de telecomunicaciones basada en los siguientes
elementos:
• Backbone: Tecnología inalámbrica de
microondas jerarquía PDH con equipamiento
Siemens SRAL en las bandas de 8,2 – 8,5 GHz
y 7,1 – 7,4 GHz.
• Accesos o última milla: Tecnología inalámbrica
de espectro ensanchado (spread spectrum)
FHSS en la banda de 5800 MHz con equipos
Alvarion y Ubiquiti.
• Sistema de Gestión y administración de
red: Sistema de gestión NetViewer para los
elementos de red del backbone SRAL y el
sistema Castle Rock para el resto de equipos
de red. La administración se realiza de forma
remota y centralizada.
• Elementos de conectividad: La conectividad
hacia los diferentes puntos terminales de red
(agencias, oficinas, puntos de recaudación y
subestaciones) utiliza el estándar IEEE 802.3
Ethernet a través de switches para accesos.
4.4.3 Reconectadores utilizados en el sistema de
distribución
El sistema de distribución de Centro Sur está
equipado con reconectadores tripolares de las marcas
ABB y SIEMENS, y monopolares marca NOJA.
Todos los dispositivos están dotados de un gabinete
de control que les habilita realizar las funciones de
protección, control y comunicaciones.
Desde el punto de vista de automatización, las
características principales de los reconectadores
instalados se listan en la Tabla 1.
La capacidad de la red de transporte (backbone) es
de 100Mpbs. Una de las circunstancias observables de
147
este sistema es que la red de acceso inalámbrica trabaja
en las bandas no licenciadas 5,7 – 5,9 GHz, lo que la
hace vulnerable a las interferencias, especialmente en
las áreas urbanas donde existe gran concentración de
sistemas difusores en las mismas frecuencias. Con
esta consideración, será fundamental el continuo
monitoreo, gestión y mantenimiento sobre los enlaces
de última milla a fin de detectar, anticipar y corregir
de forma oportuna los inconvenientes derivados del
uso de estas bandas, y otros que puedan presentarse.
Superada
la
observación
anterior,
las
características de desempeño y cobertura de la red
de telecomunicaciones propia de Centro Sur se
consideran apropiadas para proveer del servicio
de transporte de datos para telecontrol de los
reconectadores. Por lo tanto la utilización de esta
infraestructura para el transporte de datos entre el
SCADA y los reconectadores tiene la prioridad sobre
otras opciones, procurando limitar el uso de estas
últimas a casos puntuales.
4.4.5 Características del Sistema de Integración
La solución, de acuerdo a las recomendaciones de
la sección (4.3), consiste en la implementación de
un “Gateway” para recolectar la información de los
reconectadores utilizando el protocolo DNP3 LAN/
WAN y enviar esta información al SCADA a través
del protocolo IEC-60870-5-101 (encapsulado en
TCP/IP) de acuerdo al perfil del SCADA Sherpa de
ELIOP. El Gateway seleccionado es una aplicación de
software llamado “SCADA Data Gateway” (SDG) de
la marca Triangle Microworks ® instalado sobre un
servidor HP Proliant DL360G7.
La arquitectura específica seleccionada se ilustra en
la Fig. 3. El Gateway se incorpora directamente a la red
LAN del SCADA a través de dos interfaces Ethernet
10/100/1000baseT en configuración redundante. Los
protocolos de telecontrol, tanto DNP3 LAN/WAN
como IEC60870-5-101 encapsulado, son transmitidos
simultáneamente a través de la interfaz activa hacia la
LAN del SCADA. En el caso de los mensajes DNP3,
estos son enviados por el router SCADA hacia la red
de telecomunicaciones, y transportados finalmente a
cada uno de los reconectadores. Las tramas IEC608705-101 se quedan dentro de la LAN, siendo su destino
final los servidores del SCADA Cuenca1 y Cuenca2,
según la Fig. 3.
Figura 3: Arquitectura del sistema de integración de
reconectadores de Centrosur
La Fig. 4 muestra un reconectador telecontrolado
instalado sobre un alimentador urbano de 22
kV. El equipo está asociado a un sistema de
telecomunicaciones instalado en el mismo sitio del
reconectador y le permite la conexión al SCADA del
Centro de Control. Esta disposición de equipamiento
es replicada para otros reconectadores montados en
la red de media tensión. El equipo de reconexión está
montado en el poste del lado izquierdo de la imagen
de la Fig. 4, el sistema de telecomunicaciones basado
en una radio OFDM está desplegado en el poste de la
derecha de la imagen.
Figura 4: Reconectador SIEMENS Av. Cacique Chaparra
supervisado y controlado desde el Centro de Control
La Fig. 5 muestra los diagramas unifilares de
operación desde el SCADA para un arreglo de dos
reconectadores en un alimentador (un equipo para
protección y otro para transferencia). El diagrama
sinóptico permite al operador maniobrar el equipo
desde el Centro de Control, ejecutando la apertura/
cierre del equipo, cambiar su grupo de ajustes, bloquear
funciones de protección/recierre/etc., y supervisar las
principales medidas eléctricas (corrientes, tensiones,
potencias) del segmento o punto de la línea de
distribución donde se ubica el reconectador.
148
Mejora en la calidad del servicio: Las funciones de
operación remota inciden principalmente en el tiempo
total de interrupción TTIK, por lo que se estima
obtener mejoras en este indicador.
Reducción de los costos de operación (personal
y equipo) y destinación de los recursos a otras tareas.
6. CONCLUSIONES Y RECOMENDACIONES
Figura 5: Diagrama unifilar SCADA para operación de
reconectadores de un alimentador de la Centrosur
5. BENEFICIOS DE LA OPERACIÓN REMOTA
DE RECONECTADORES DE LA RED DE
MEDIA TENSIÓN
La capacidad de tele controlar y supervisar los
reconectadores deriva en varios beneficios inmediatos,
principalmente operativos, y otros de mediano plazo,
que se estima se evidencien en los índices de calidad.:
y del monitoreo más preciso del estado del Sistema
Eléctrico de Potencia. Entre los más representativos
tenemos:
Reducción del tiempo de identificación de falla,
de decenas de minutos o incluso horas a unos
pocos minutos: La información en tiempo real
permite al operador conocer el estado del sistema de
distribución inmediatamente después de una falla,
en contraposición con el tiempo considerable que
requeriría obtener los reportes de las cuadrillas luego
de recorrer un alimentador.
Reducción del tiempo de reposición del servicio:
Los tiempos de ejecución de maniobras pueden
ser reducidos mediante el control a distancia del
reconectador, realizándose apenas se ha despejado o
reparado una falla, evitando el tiempo de movilización
de una cuadrilla hacia la ubicación del reconectador,
que en alimentadores rurales tomaría varias decenas
de minutos o incluso horas.
Asistencia y seguimiento a los procedimientos
de mantenimiento en campo: Con la información
centralizada en el Centro de Control, es posible guiar
más efectivamente a las cuadrillas de mantenimiento
y dar apoyo en las maniobras remotamente.
Agilitar la toma de acciones para garantizar
la continuidad del servicio: El conocimiento del
panorama completo del sistema de distribución desde
el SCADA (con los reconectadores integrados al
mismo) permite la toma de decisiones más adecuadas
y oportunas ante contingencias del Sistema Eléctrico
de Potencia.
La socialización, principalmente entre el
personal operativo y de ingeniería de las áreas
de mantenimiento y operación de los sistemas de
distribución, de las funciones de operación remota de
reconectadores implantadas en el Centro de Control
permite garantizar la operación segura de los equipos
y del sistema, sin comprometer la integridad física del
personal en campo.
Es fundamental incorporar a los procedimientos
de operación del sistema eléctrico aquellas tareas
automatizadas, en este caso el telecontrol de
reconectadores, para extraer el mayor beneficio que
éstas nos pueden proporcionar en la coordinación
y eficiencia operativa, garantizando finalmente la
continuidad del servicio eléctrico.
La supervisión y control remotos es una de las
características funcionales de la Automatización de
la Distribución (DA) más requeridas por las empresas
eléctricas, y la primera en implementarse la mayoría
de las veces. El telecontrol de los reconectadores por
lo tanto permite dar un primer paso en el mundo de
DA, y también una primera experiencia para mirar casa
adentro de las empresas distribuidoras y visualizar
la realidad y nivel de preparación, en aspectos de
talento humano y tecnológicos, para incursionar
definitivamente en las tendencias mundiales de DA y
Smart Grids.
Es importante reforzar los sistemas tecnológicos
informáticos y de telecomunicaciones, que son la
columna vertebral por medio de la cual se transportan,
procesan y almacenan los datos operacionales y no
operacionales, y de estas depende en gran medida el
éxito del desarrollo de las tecnologías de DA y Smart
Grids.
En el caso práctico de la Centro Sur y con 35
equipos integrados hasta el momento, se observa
que las condiciones de performance y cobertura de
la red de telecomunicaciones propia de esta empresa
son bastante estables para el telecontrol, por lo que
la búsqueda de otras soluciones para el transporte
de datos entre el SCADA y los reconectadores no es
149
prioridad, utilizándose la infraestructura propia para la
totalidad de los casos hasta el momento. Sin embargo
es crítico contar con un recurso humano dedicado a la
atención de esta red de datos para mantener el nivel de
confiabilidad exigido por las aplicaciones del sistema
eléctrico.
El grado de flexibilidad de la ubicación de un
reconectador es determinante para su integración
al Centro de Control. Para facilitar el despliegue de
una red de acceso de datos es indispensable que el
estudio de ubicación óptima establezca una tolerancia
o rango de movilidad en la ubicación, de forma que
la posición definitiva sea ajustada, dentro de esa
tolerancia, en función de la factibilidad de los enlaces
de telecomunicaciones y del montaje del equipo. La
inspección en sitio es, por lo tanto, una fase crítica en
la decisión final y en el levantamiento de información
para el diseño del montaje, diseño de la red de acceso,
etc.
7. REFERENCIAS BIBLIOGRÁFICA
[1] Northcote-Green, James & Wilson, Robert.
(2007). “Control and Automation of Electrical
Power Distribution Systems”. Boca Raton FL:
CRC Press.
[2] Patiño, Raúl. (2007). “Telecontrol y
telegestión de reconectadores con tecnología
GSM/GPRS”. III CONGRESO CIER DE LA
ENERGÍA CONCIER, Medellín, Colombia.
[3] Departamento de Operaciones, Dirección de
Telecomunicaciones – CENTROSUR. (2012).
“Diagramas de Red FODETEL I y II”. Cuenca,
Ecuador.
[4] Triangle Microworks, Inc. (2012). “SCADA
Data Gateway Implementation Guide,
Software Release Version 2.54”. Raleigh,
North Carolina.
[5] ABB. (2004). “PCD Power Control Device
Instruction Book IB38-737-5 Issue E”.
[6] SIEMENS. (2009). “Data Communications
7SR224 Recloser Controller”.
[7] Departamento de Supervisión y Operación
– CENTROSUR (2012 - 2013). “Archivos
y registros proyecto Integración de
Reconectadores al SCADA”. Cuenca, Ecuador.
Carlos
Emilio
Landázuri
Paredes.- Nació en Quito,
Ecuador en 1979. Recibió su
título de Ingeniero en Electrónica
de la Universidad Politécnica
Salesiana en 2004. Actualmente
se encuentra en proceso de
obtención de su título de Master
en Telemática en la Universidad de Cuenca. Su
campo de investigación está relacionado con el área
de control y telecomunicaciones para sistemas
SCADA, automatización de subestaciones eléctricas
y automatización de los sistemas eléctricos de
distribución.
150
Diseño e Implementación del Sistema de Control de un Inversor
Multinivel de Fuentes Independientes, por medio de Modulación
Vectorial Espacial
J. Galarza
F. Quizhpi
Universidad Politécnica Salesiana
Resumen— El presente trabajo muestra los pasos
seguidos, para la implementación del sistema
de control de un inversor multinivel. El estudio
parte de la topología de fuentes independientes
utilizada, luego se describe la implementación del
algoritmo de consideraciones geométricas usado
y los sistemas de monitoreo y protección en una
placa basada en FPGA. Por último se presentan
los resultados de la puesta en funcionamiento del
sistema completo, con las mediciones de la tensión
y la frecuencia obtenidas a la salida del inversor,
y el THD en la corriente y tensión en la carga, el
cual fue alrededor del 7% con una carga resistiva,
e inferior al 3% en un motor asíncrono.
Palabras clave— Inversor, FPGA, modulación,
vector, espacial, algoritmo, VHDL.
Abstract— This study shows the steps to be taken
to implement a multilevel inverter control system.
The study is based on the topology of independent
sources used, and later describes implementation
of the algorithm with geometric considerations
used, and the monitoring and protection systems
in an FPGA-based board. In the end, it presents
results for start-up of the entire system, with the
voltage and frequency measurements obtained at
the inverter output, and the THD in the current
and load voltage, which was around 7% of the
resistive load, and less than 3% in an induction
motor.
Index Terms— Inverter, FPGA, modulation,
vector, space, algorithm, VHDL.
1. INTRODUCCIÓN
Desde la introducción de los convertidores CD/
CA ya hace varios años, su estudio y utilización se
han venido incrementando debido a sus diversas
aplicaciones, que van desde variadores de frecuencia
para motores eléctricos hasta para sistema de
corrección del factor de potencia y/o para la
compensación de corrientes reactivas, etc.
Estos conversores CD/CA también llamados
inversores, tienen la función de convertir una tensión
fija de corriente continua a una tensión simétrica de
corriente alterna con frecuencia y tensión deseada.
La frecuencia y tensión pueden ser ajustables según
se desee en ciertos casos. La tensión simétrica
alterna se consigue al conectar la carga a la fuente
de alimentación en un sentido u otro, por medio de
interruptores de potencia.
El estudio de los inversores en los últimos años se
ha venido incrementando, debido al adelanto en los
interruptores de potencia, ya que los mismo se han
vuelto más rápidos y con una mayor potencia, con lo
que se han creado algoritmos de control más robusto y
rápidos. Todo esto acompañado con el abaratamiento
de los FPGA y DSP, han permitido estudiar de
una manera más detallada el comportamiento de
algoritmos de control, en especial los algoritmos de
modulación vectorial espacial.
Un caso de estos es el algoritmo de consideraciones
geométricas descrito en [1], el mismo que se
implementó en un sistema FPGA, y se probó sobre
un motor asíncrono, verificando su comportamiento.
2. TOPOLOGÍA
INDEPENDIENTES
DE
FUENTES
Existen varias topologías para inversores
multinivel, que van desde la utilización de una solo
fuente, hasta las que requieren varias fuentes para
generar los distintos niveles de tensión necesarios
para la salida del inversor. Estas topologías se pueden
ver en [1].
En este trabajo se utilizó la topología de fuentes
independientes de 4 niveles, que se basa en la unión
de 1 puente trifásico y 3 puentes monofásicos, como
se muestra en la Fig. 1.
151
R1=R2=R3
( 2)
VR1=2⁄3 V
( 3)
VR2=-1⁄3 V
( 4)
VR3=-1⁄3 V
( 5)
Figura 1: Convertidor Trifásico de Puentes en Cascada de 4
Niveles
Todos los demás estados y niveles de tensión, se
pueden ver en el apéndice A de [2], de los cuales,
la mayor parte son redundantes. Por este motivo se
eligió los estados que requieran un menor número de
conmutaciones cuando exista un cambio de estado,
los mismos se pueden ver en la tabla 3.3 de [2].
2.1. Estados del inversor de fuentes independientes
de 4 niveles
3. IMPLEMENTACIÓN DEL ALGORITMO DE
CONTROL
Los estados del convertidor, hacen referencia al
nivel de tensión en cada fase del mismo, cuando está
conectada una carga y teniendo una combinación
determinada de ramas conectadas a +VDC o –VDC,
según el esquema de la Fig. 1.
El algoritmo de control se describió en lenguaje
VHDL, sobre un módulo de desarrollo “MicroBlaze
Development Kit Spartan-3E 1600E” manufacturado
por Digilent [3]. Este sistema está basado en un FPGA
“Spartan 3E”, el mismo que brinda la posibilidad de
realizar cambios en el algoritmo de control, sin la
necesidad de cambios físicos en el circuito.
En total existen 2n posibles combinaciones del
convertidor, en donde n es el número de ramas,
que en este trabajo son 9, por lo tanto el número de
combinaciones es:
2n=29=512 posibles combinaciones
( 1)
Al cerrar los distintos interruptores, es decir
conectar cada rama a +VDC o –VDC, y conectar una
carga equilibrada en estrella en los terminales del
inversor, como se muestra en la Fig. 2, se puede
calcular las tensiones en la carga, lo que equivale a un
estado del inversor multinivel.
Además al ser un sistema basado en FPGA, la
implementación del algoritmo se puede realizar en
pequeños bloques, los mismos que se pueden ejecutar
en paralelo o en serie según las necesidades.
Para el circuito de potencia se utilizaron los
módulos de IGBTs del laboratorio de Electrónica de
Potencia de la Universidad Politécnica Salesiana, sus
características y/o partes constitutivas, al igual que su
conexión está detallados en la sección 3.3 de [2].
3.1. Algoritmo de consideraciones geométricas
El algoritmo de consideraciones geométricas es un
método de modulación del tipo vectorial espacial.
Los métodos de modulación vectorial espacial
permiten generar una tensión y frecuencia de salida
establecida con una gran precisión y poca carga
armónica a la salida.
Figura 2: Estado 100000000 del convertidor de 4 niveles
En el caso del estado 100000000 de la Fig. 2, los
valores de tensión son:
Los métodos de modulación vectorial espacial
se basan en la consideración, que la terna [a, b, c]
de voltajes en un instante de tiempo, se pueden
transformar a un sistema d-q, de un vector de magnitud
proporcional al voltaje de la terna y de frecuencia
de giro igual a la frecuencia de la terna, a esto se le
conoce como transformada de Clark [4]. Con el vector
y los estados del inversor también transformados al
plano d-q, se calculan las conmutaciones necesarias
152
del sistema para aproximar la onda de salida a la onda
senoidal requerida.
El algoritmo de consideraciones geométricas
descrito en [1] y [2], busca generar una secuencia de
conmutación de las ramas, en cada tiempo de muestreo
Tm, estableciendo cuales son los estados a utilizar y
los tiempos en los cuales permanecen activos.
Las ventajas de este algoritmo son: (1) se puede
implementar para cualquier número de niveles y su
carga computacional es la misma, (2) no se necesita
el cálculo de funciones trigonométricas y (3) no
necesita almacenar datos en memorias o tablas para
su funcionamiento.
Este algoritmo de consideraciones geométricas,
se realiza en 7 pasos los mismos que son descritos a
continuación y con más detalle en [2]:
3.1.1 Normalizar el vector de referencia
En este paso se transforma la terna [a, b, c] al
plano d-q, y al mismo tiempo el vector obtenido se
normaliza para que el algoritmo sea independiente de
la tensión de las fuentes de alimentación.
3.1.2 Achatar el espacio vectorial
Se multiplica el componente q del vector de
referencia por 1/√3, con lo que se elimine la necesidad
del cálculo de ángulos y funciones trigonométricas, y
se facilita el cálculo de los tiempos y los estados de
conmutación del algoritmo.
3.1.3 Elección de la zona en la que se encuentra el
vector de referencia
Divide el espacio vectorial en 3 zonas y establece
en cual se encuentra el vector de referencia.
3.1.4 Cálculo de las coordenadas del vértice de un
sector triangular
Divide las 3 zonas en estados y establece una terna
para cada estado, al mismo tiempo divide el espacio
vectorial en sectores en forma de cuadriláteros. Luego
establece cual es la terna del estado más cercano al
vector de referencia.
Figura 3: Diagrama del sistema de control del inversor
3.1.5 Orientación del sector triangular
Divide cada cuadrilátero en dos triángulos y calcula
en cuál de los 2 triángulos se encuentra el vector de
referencia.
3.1.6 Cálculo de los tres vectores más cercanos al
vector de referencia
Establece cuales son los estados del triángulo en el
que se encuentra el vector de referencia.
3.1.7 Cálculo de los tiempos de conmutación de los
vectores activos
Por simples adiciones y sustracciones entre los
componentes del vector de referencia y los estados del
triángulo en el que se encuentra el vector de referencia
se calcula los tiempos y estados de conmutación del
inversor.
En la tabla 2.1 de [2] se muestra un resumen de los
estados de conmutación y los tiempos en las distintas
regiones en el plano complejo d-q.
3.2. Diagrama de bloques del algoritmo de control
Como se ve en la Fig. 3 el sistema de control tiene
como entradas el voltaje RMS de fase y la frecuencia
que se desea obtener a la salida del inversor, estos
valores son establecidos por el operario del sistema
por medio de pulsantes.
153
Los parámetros son guardados en un bloque de
Almacenamiento y selección de parámetros del
inversor, otra entrada de este bloque es la tensión
de las fuentes para establecer el voltaje máximo que
puede entregar el inversor sin saturarse.
A partir de las corrientes de la carga acopladas por
sensores de efecto Hall y cuantificadas por ADC’s de
12 bits manejados por el bloque de Censado de las
corrientes en la carga, y el voltaje de las fuentes de
tensión cuantificados por otros ADC’s de 12 bits en
configuración diferencial y adquiridos por el bloque
de Censado de la tensión de las fuentes, se establece
que no existe sobre-corriente en la carga o una bajada
de tensión drástica en las fuentes en el bloque del
Sistema de protección del inversor, si es así se da una
señal de control afirmativa, caso contrario una señal
negativa y una señal de error la salida de mensaje de
error.
Los parámetros del inversor almacenados en el
bloque de Almacenamiento y selección de parámetros
del inversor y el voltaje de las fuentes de tensión
adquiridos por el bloque de Censado de la tensión
de las fuentes son visualizados por medio del bloque
de Visualización de los parámetros del inversor, y si
existe un mensaje de error se visualiza el mismo.
A partir de la frecuencia almacenada se calcula el
vector de referencia u* en el bloque del Generador del
vector de referencia. A este bloque se le proporciono
algoritmos de corrección de errores, permitiendo
conseguir un inversor con un error en frecuencia
calculado de 0,00004% a 60Hz, insignificante en
comparación al ±0,004% de error del reloj montado
en la placa del FPGA, el mismo que es necesario para
el funcionamiento del algoritmo sobre el FPGA y que
influye en la misma cantidad a la frecuencia obtenida
a la salida.
Luego el vector u*, conjuntamente con el voltaje
de las fuentes de tensión adquirido por el bloque
de Censado de la tensión de las fuentes, entran al
bloque de Normalización y achatamiento del vector
de referencia, en donde se realiza el paso 1 y paso
2 del algoritmo de consideraciones geométricas
descrito en la sección 2.1.3 de [2], en un tiempo dado,
siempre y cuando la señal de control sea afirmativa,
caso contrario no se calcula el siguiente vector de
referencia.
El vector normalizado y achatado entra al bloque
de Cálculo de los estados y tiempos de conmutación
en donde se realizan los pasos 3, 4, 5, 6 y 7 del
algoritmo de consideraciones geométricas descrito
en la sección 2.1.3 de [2], en donde se calculan los
tiempos y estados de conmutación.
Los tiempos y estados de conmutación calculados
en el bloque Cálculo de los estados y tiempos de
conmutación ingresan al bloque de Conmutación de
los estados en un tiempo de muestreo Tm, en donde
a partir de los tiempos y estados de conmutación se
encienden los interruptores de potencia del inversor
que entregan voltaje a la carga, si es que la señal de
control es afirmativa, caso contrario los interruptores
se apagan y a la carga le llega cero voltios.
Una descripción más detallada del diagrama de
bloques y los bloques que lo componen se encuentra
en la sección 2.2 de [2].
4. RESULTADOS
Para pruebas de funcionamiento del algoritmo, se
cargó la descripción hecha en VHDL sobre la placa
basada en FPGA y para el circuito de potencia se
utilizó 4 fuentes independientes y puentes formados
con IGBT's.
Las pruebas se realizaron con 3 tipos de cargas. Los
valores de tensión se midieron con un osciloscopio
de 20Ms/s y la corriente con sensores de efecto Hall
acoplados al mismo osciloscopio. Los resultados de
las pruebas se muestran a continuación.
4.1. Prueba con carga resistiva
Las características de la prueba fueron:
• Tensión de las fuentes de alimentación: 38,56v.
• Carga resistiva en estrella: 312Ω
• Voltaje fase-neutro deseado a la salida:
14,36Vrms.
• Frecuencia de salida: 60Hz.
En la Fig. 4 se muestra la tensión fase neutro de 2
de las fases del inversor, en donde se pueden ver que
se están utilizando 3 de los niveles del inversor, y en
la Fig. 5 la medida de la frecuencia que está alrededor
de 60,61Hz, que no es exactamente la frecuencia de
salida del inversor, porque es la medición entre 2
puntos muestreados por el osciloscopio.
154
También se calcula el RMS de la corriente por
medio de Matlab que es de 45,68mA, que es bastante
parecido al valor calculado en el osciloscopio, como
se muestra en la Fig. 7. Este valor de corriente
coincide aproximadamente con el valor calculado por
medio de la ley de Ohm.
(6)
Figura 4: Tensiones fase neutro medidas en 2 de las fases
Con los valores de tensión de fase, se calcula el
valor RMS por medio de Matlab, dando un resultado
de tensión de 15,86V, este es un valor diferente al que
se estableció en la tensión deseada a la salida, pero
este error se debe principalmente a la velocidad de
adquisición del osciloscopio y a la calidad de los
ADC utilizados para la medición de la tensión de las
fuentes, los mismos que no son de una gama alta.
Figura 7: Corriente en una de las fases con una carga R
4.2. Pruebas con carga resistiva inductiva en
serie.
Para esta prueba se eligieron los siguientes
parámetros:
• Carga R-L en estrella: R=300Ω y L=0,8H
• Tensión de las fuentes de alimentación:
38,56V.
• Voltaje de salida deseado: 42Vrms.
• Frecuencia: 60Hz.
Figura 5: Frecuencia de salida con una carga resistiva de
312Ω
En la Fig. 6 se muestra el espectro de la onda de
tensión, calculada por medio de LabVIEW, en donde
la onda fundamental está a 60Hz y se encuentra
alrededor de los 13V, también se pueden ver que
existen componentes armónicas, las mismas que están
por debajo de 0,25V. Con esto se calcula el THD que
en el voltaje y la corriente es de alrededor de 7,52%.
Figura 8: Frecuencia y tensión fase neutro en la onda de
tensión de salida con carga RL
El valor RMS calculado en Matlab fue de 39,07V
y el de THD calculado mediante LabVIEW es de
4,77%.
Figura 6 : Espectro de la onda de tensión con una carga de
312Ω
155
• Voltaje fase-neutro, de salida: 46,96v.
• Frecuencia de salida del inversor: 60Hz.
• Motor de 4 polos conectado en estrella.
En la Fig. 13 se muestra la tensión fase neutro en el
motor y en la Fig. 14 se muestra su tensión línea- línea
del inversor.
Figura 9: Espectro de la onda de tensión con una carga RL
En la Fig. 11 se muestra la onda de corriente en
una de las fases que es de 121mA, según lo calculado
por el osciloscopio, y por cálculo de Matlab es de
120,61mA, en cambio el nivel de THD es de tan solo
1,62%.
Figura 13: Tensión fase neutro del motor a 60Hz
Figura 10: Espectro de la onda de corriente con una carga RL
Figura 14: Tensión línea- línea del motor a 60Hz
El valor RMS de la tensión de fase es de 46,2V
según lo mostrado en el osciloscopio y el de línea
es de 79,7V; que es aproximadamente igual a la
transformación de tensión de línea a fase
46,2V.√3=80V≈79,7V
Figura 11: Corriente de fase con una carga RL
( 7)
El THD de la tensión de fase es igual a 3,29% y de
3,06% en la de línea, según lo calculado por medio de
LabVIEW.
En la Fig. 15 en cambio se muestra la corriente que
circula por el motor, el valor rms es de 293mA, y su
THD es de 2,82%.
Figura 12: Tensión de fase y corriente de fase con carga RL
4.3. Prueba de un motor asíncrono a 60Hz.
Los parámetros del motor fueron:
• Voltaje de alimentación: 38,6v.
Figura 15: Corriente del motor a 60Hz
156
El método de modulación vectorial espacial, según
lo investigado y puesto en funcionamiento fue la mejor
opción a la hora implementar un sistema de control para un
inversor multinivel por su bajo THD a la salida del inversor
y facilidad de ajuste de tensión y frecuencia a la salida.
Figura 16: Espectro de la onda de corriente, con el motor a
60Hz
Para comprobar el resultado de la frecuencia, se
mide la velocidad del motor que fue de 1776rpm y
se calcula la frecuencia que debe entregar el inversor
para producir esta velocidad.
El algoritmo de consideraciones geométricas
implementado fue muy eficiente a la hora de elegirlo como
método de modulación, ya que el mismo no necesito el
cálculo de funciones trigonométricas o la necesidad de
iteraciones para el cálculo de los tiempos y estados, lo que
simplifico en gran medida la descripción del algoritmo de
control en el FPGA.
(8)
(9)
La implementación del algoritmo de control en un
sistema basado en FPGA, fue de gran ayuda porque al ser
un sistema que funciona en paralelo, el sistema de control se
pudo dividir y describir en partes, y que cada una funcione
en paralelo. Por tanto cada parte dedica todos los recursos
asignados para cumplir con su propósito.
La frecuencia dada por el cálculo es de 59,2Hz,
pero al ser un motor asíncrono esta no es la frecuencia
real del campo magnético o frecuencia síncrona, por
tanto se puede establecer que la frecuencia obtenida si
esta alrededor de 60Hz.
Con la implementación de algoritmos de corrección de
errores se consiguió un sistema de control muy preciso en
frecuencia ya que su error de alrededor del 0,00004% a
60Hz, es despreciable en comparación al error del reloj de
la placa que es de 0,004%.
En la Fig. 17 se muestra la tensión de fase y la
corriente que se midieron en el motor al ser conectado
al inversor.
El THD, cuando se utilizó 3 niveles fue de alrededor del
7%, aun alto para las normativas vigentes, pero cuando se
utiliza todos los niveles el THD fue menor al 3% en tensión
y corriente que es un valor aceptable, según las normativas.
Cuando el algoritmo se probó con un motor asíncrono,
su THD fue de 2,82% y 2,3%, para tensión y corriente
respectivamente, lo que nos indica que no se necesita
un filtro pasivo para la eliminación de armónicos, lo
que se vio en el espectro de frecuencias calculado y en
sí en el funcionamiento del motor ya que el mismo no
tuvo un funcionamiento anormal, como vibración o
recalentamiento.
Figura 17: Tensión de fase y corriente del motor a 60Hz
5. CONCLUSIONES Y RECOMENDACIONES
El uso de la topología de fuentes independientes fue de
gran utilidad a la hora de generar del sistema de potencia,
porque esta topología no necesita un control estricto
de la tensión de las fuentes. También esta topología al
tener niveles redundantes, se pudo elegir los que menos
conmutaciones necesiten entre cambios de estado. Por otro
lado esta topología tiene la desventaja que se necesitan
fuentes independientes, que en este caso fueron 4, que para
ciertas aplicaciones pueden resultar muy costosas, pero a
la final, el algoritmo implementado solo necesita cambios
mínimos en el bloque de conmutación, para ser utilizado
con otras topologías.
También la tensión obtenida a la salida del inversor es
muy parecida a la deseada, con un error de alrededor del
2%. Una mayor precisión se puede obtener utilizando
componentes de mayor precisión como los ADC, o
aumentado la frecuencia de muestreo para la activación y
desactivación de los interruptores de potencia.
El sistema de protección, que fue implementado tiene
una velocidad de respuesta muy rápida de apenas 16µs
desde que se detecta el error, lo que lo hace bueno para un
sistema que manejan motores.
157
REFERENCIAS BIBLIOGRÁFICAS
[1] Martín M. (2003). “Nuevas técnicas de
modulación vectorial para convertidores
electrónicos de potencia multinivel”. Tesis
de Doctorado. Universidad de Sevilla, ISBN
8468972371, Sevilla, España. Disponible
(online) en:
http://fondosdigitales.us.es/media/thesis/214/
DT248.pdf
[2] Galarza J. (2012). “Diseño e implementación
del sistema de control de un inversor multinivel
de fuentes independientes, por medio de
modulación vectorial espacial”. Tesis de
Pregrado. Universidad Politécnica Salesiana,
Cuenca, Ecuador. Disponible (online) en:
Flavio Alfredo Quizhpi Palomeque.Nació en Cuenca-Ecuador, en 1969.
Recibió el Título de Ingeniero
Electrónico en la Universidad
Politécnica Salesiana en el 2003,
Licenciado en Ciencias de la
Educación en la Universidad Politécnica Salesiana en
el 1999, Especialista en Educación Superior en la
Universidad del Azuay en el 2002. Actualmente
cursando el programa Doctoral en Ingeniería Eléctrica
en la Universidad Simón Bolívar de Venezuela.
Dedicado al área de investigación de los Sistemas
Eléctricos de Potencia, Confiabilidad, FACTs e
Inversores Multinivel.
http://dspace.ups.edu.ec/
bitstream/123456789/4438/1/UPS-CT002631.
pdf
[3] Xilinx. (2007). “MicroBlaze Development
Kit Spartan-3E 1600E Edition User Guide”.
Manual de Usuario v1.1.
[4] González F. (2004). “Entendiendo la
Transformación
de
Park”.
Venezuela.
Disponible (online) en:
http://www.fglongatt.org/Reportes/RPT200401.pdf
Juan Carlos Galarza Galarza.- Nació en
el cantón de Chordeleg, Ecuador, el 16
de Septiembre de 1988. Recibió el título
de Ingeniero Electrónico en la
Universidad Politécnica Salesiana en el
2013, Tecnólogo Electrónico en la
Universidad Politécnica Salesiana en el
2010. Actualmente estudia Ingeniería Mecánica en la
Universidad Politécnica Salesiana. Le interesa sistemas
mecatrónicos, mecánicos, sistemas SCADA y sistemas
de control numérico computarizado, electrónica de
potencia
.
158
Estudio de Coordinación de Protecciones por Métodos Computacionales
Aplicados a una Subestación
C. Palacios
Centro Nacional de Control de Energía, CENACE
Resumen— El presente trabajo propone la
utilización de herramientas computacionales para
realizar estudios de flujo de potencia, análisis
de cortocircuito así como analizar y mejorar el
sistema de protección de una subestación y sus
alimentadores. Además se expone la ventaja de
utilizar un dispositivo electrónico inteligente (IED)
para mejorar la confiabilidad de la red y cómo una
herramienta computacional se complementa para
ajustar y coordinar las protecciones.
El estudio de flujo de potencia es necesario para
el ajuste de los elementos de protección y el
análisis de cortocircuito sirve para realizar la
coordinación de los mismos.
on the experience of engineers in the electricity
distribution field and in the pertinent analysis of
the system’s mathematical equations
Index Terms— Power Flow, Short-Circuit
Analysis, Protective Devices Coordination,
Intelligent Electronic Device (IED).
1. INTRODUCCIÓN
La coordinación de protecciones se define como el
proceso para determinar los ajustes de los dispositivos
de protección en una subestación eléctrica, de esta
coordinación dependerá el buen o mal funcionamiento
del sistema. [1]
Este trabajo puede servir de guía al momento
de realizar un estudio de coordinaciones
de protecciones para una subestación con
características específicas; ya que se utilizan
suposiciones prácticas y teóricas basadas en la
experiencia de ingenieros del área de distribución
eléctrica y en el análisis pertinente de las
ecuaciones matemáticas del sistema.
La utilización de Métodos Computacionales para
el análisis de la coordinación de las protecciones si
bien en un principio fue aplicado a una subestación
específica, puede ser utilizada para otras subestaciones
del país con características similares.
Palabras claves— Flujo de potencia, análisis
de cortocircuito, coordinación de protecciones,
dispositivo electrónico inteligente, IED.
• Tener un transformador de potencia trifásico
reductor con refrigeración tipo ONAN/ONAF
y conexión Δ / Ү.
• El patio de los alimentadores debe tener
configuración de Barra Principal y Barra de
Transferencia.
• Alimentadores de tipo radial.
• Sistema de puesta a tierra de tipo mallado.
Abstract—
This
work
proposes
using
computational tools to perform power flow
studies and short-circuit analyses, as well as for
analysing and improving the protection system of
a substation and its feeders. It also presents the
advantage of using an intelligent electronic device
(IED) to improve network reliability and to adjust
and coordinate protections as a complementary
computational tool.
The power flow study is necessary for adjusting
certain protection elements and the short-circuit
analysis is used to coordinate them.
This work might be used as a guide when performing
a study of protective devices coordination for
a substation with specific characteristics, as it
uses practical and theoretical assumptions based
Las características de la subestación en estudio
tienen que ser las siguientes:
2. ESTUDIO DEL FLUJO DE POTENCIA
El flujo de potencia del sistema se utiliza para
analizar gráficamente condiciones operativas y
resultados.
Los criterios que deben ser considerados cuando
se realiza un estudio de flujo de potencia son:
Flexibilidad Operacional, Nivel de Confiabilidad,
Niveles de Sobrecarga y una Regulación de Voltaje
del más o menos 2,5% ante cualquier contingencia
operativa. [2]
159
El estudio de flujo de potencia fue realizado para
condición de máxima demanda y mínima demanda;
para lo que se necesita datos de voltaje, capacidad
nominal e impedancia del transformador de potencia
así como de los conductores de los alimentadores.
Este estudio es necesario para realizar el ajuste de los
dispositivos de protección.
Para el análisis de ambos casos se utilizó el
programa POWER WORLD versión 14, los datos
del sistema que se ingresen deben estar en por unidad
[p.u.], para ello debemos referir las impedancias de
las líneas y transformadores a una misma base, por
ejemplo una base de 100 MVA.
El análisis del flujo de potencia muestra lo siguiente:
•
•
•
•
•
Voltaje en barras con magnitud y ángulo.
Consumo de las alimentadoras.
Factor de potencia.
Requerimientos de potencia Reactiva.
Ajustes de TAPS de los Transformadores.
4. AJUSTES Y COORDINACIÓN
El estudio de flujo de potencia y el análisis
de cortocircuito son la base para los ajustes y
coordinación de cualquier sistema de protección.
Para realizar la coordinación se utilizó el programa
CYMTCC 4.5R13 donde se ingresaron los datos
de los dispositivos de protección utilizados y de los
elementos presentes en la subestación de distribución,
ya que la base de datos del programa es extensa y
contiene información de varios fabricantes.
Esta herramienta computacional es muy útil porque
nos permitió corregir los diagramas de protección,
cambiar la secuencia de operación y realizar análisis
de fallas. Además, presenta en una sola gráfica tiempo
vs. corriente las curvas de operación de los dispositivos
de protección y de los elementos a proteger como:
• Curvas de arranque de motores.
• Curvas de daño térmico de cables y
conductores.
• Curvas de resistencia, puntos de corrientes de
arranque y térmicos de transformadores.
3. ANÁLISIS DE CIRCUITO
Se realiza análisis de Cortocircuito para seleccionar
y determinar la coordinación de los equipos de
protección, los cuales son establecidos considerando
el sistema en condiciones de falla.
Para este análisis debe considerarse condiciones
anormales de operación que podrían causar
fenómenos indeseables como flujos de corrientes que
puedan dañar equipos, caídas de voltaje y creación de
condiciones peligrosas para la seguridad del personal.
[3]
Para el análisis de las corrientes de Cortocircuito,
en las barras de la subestación, se utilizó el programa
POWER WORLD versión 14, con similares
consideraciones utilizadas en el estudio de flujo de
potencia.
Conociendo la característica de aterrizamiento de
la subestación en estudio, el análisis de cortocircuito
se lo puede realizar para las siguientes fallas:
•
•
•
•
Falla trifásica a tierra.
Falla de fase a tierra.
Falla de fase a fase.
Falla de dos fases a tierra.
Para el cálculo de las corrientes de falla en los
alimentadores pueden utilizarse las ecuaciones de
corriente de fase a tierra y de corriente de fase a
fase [3], ya que estas dos son la máxima y mínima
corriente en un sistema de distribución.
Otra ventaja que presenta el programa CYMTCC
es que puede ser instalado como un aplicativo dentro
del simulador CYMDIST, programa utilizado para
simular flujos de potencia en la mayoría de las
empresas eléctricas de distribución del país, con esto
el usuario puede diseñar esquemas de coordinación y
efectuar análisis que realiza el CIMDIST, todo en una
única plataforma. [4]
A continuación se va a hablar de los dispositivos de
protección usados por las empresas eléctricas.
Un dispositivo de protección para el transformador
de potencia es un relé digital que contenga como
función principal la protección diferencial. Uno
comúnmente usado es el relé digital TPU-2000R
de marca ABB, este está orientado a la protección
de transformadores trifásicos de transmisión y
distribución de energía, también sirve de protección
de respaldo de sobrecorriente para fallas externas.
El TPU-2000R tiene restricción armónica, e impide
la operación con irrupción o flujo magnetizante y
sobreexcitación. [5]
Las funciones de este relé y las más usadas en la
protección de una subestación eléctrica de distribución
son:
• Protección diferencial
• Protección de sobrecorriente de tiempo inverso
• Protección de sobrecorriente instantánea
• Protección de desbalance
160
Otros dispositivos de protección presentes en una
subestación de distribución para protección de los
alimentadores son los reconectadores y el relé de
frecuencia, este último es usado para desconexión
de carga por baja frecuencia en el sistema nacional
interconectado.
Tabla 2:Clasificación de transformadores de corriente usados
para medición
MEDICIÓN
Fuera de las subestaciones de distribución para
protección de ramales o bancos de capacitores se usan
normalmente fusibles. En ocasiones se puede utilizar
Intellirupters [6] para seccionamiento de la troncal o
para protección de alguna carga importante o sensible
en alguno de los alimentadores.
Un detalle que influye en este análisis es la
selección de los transformadores de corriente, en [7]
se recomienda que los transformadores de corriente
(TC) debe ser elegido de tal forma que la corriente
en su secundario se aproxime a 5 A para la máxima
corriente de carga y menor a 100 A para la máxima
corriente de falla, con el fin de evitar que se produzca
una diferencia de potencial muy grande que lo sature.
En [8] se definen los rangos de selección para los
transformadores de corriente cuando se los utiliza para
protección y/o medición, a continuación se muestra
en las Tablas 1 y 2 los rangos de transformadores de
acuerdo a:
d
2500/1 A
15 VA
5P
20
d
500/5 A
20 VA
CL 0,5
F S3
4.1.1 Protección de porcentaje diferencial para el
transformador (87T)
Para realizar el ajuste es necesario determinar:
1) El desfase del transformador de potencia entre
los lados de alto y bajo voltaje.
2) Las corrientes nominales del transformador de
potencia para los lados de alto y bajo voltaje.
3)Las corrientes nominales referidas al
secundario del transformador de corriente
previamente seleccionado.
4) La corriente de restricción (IR) usada en el relé
luego de la compensación interna, esta última
es dada por el fabricante.
PROTECCIÓN
c
c
Para que los datos de ajustes de los dispositivos de
protección que se ingresan al programa CYMTCC
4.5R13 sean los apropiados, es necesario considerar
los siguientes criterios.
Tabla 1:Clasificación de transformadores de corriente usados
para protección
b
b
4.1. Ajustes
a: Su razón de transformación.
b: Su potencia de precisión.
c: Su clase de precisión.
d: Características dependientes de su saturación.
a
a
La condición de operación del relé debe ser:
Iop>K*IR
(1)
Donde K es un coeficiente que evita que la
protección diferencial opere incorrectamente cuando
no hay falla interna. [9]
La selección de la pendiente de esta protección
depende del análisis de los errores en los instrumentos
de medición, desfases de ángulos, porcentaje de
desajuste M que se halla en (2) y de operaciones del
161
transformador de potencia por ejemplo arranque,
cambios de TAPs o funcionamiento en vacío.
La pendiente representa la suma de todos estos
porcentajes.
En [9] se recomienda que en relés diferenciales para
protección de transformadores un buen porcentaje de
error debe estar entre 20% y 60%, para proveer un
amplio margen de seguridad.
Fórmula para calcular el desajuste por errores [9]:
(2)
Donde:
Ih e Il: son valores de corriente nominal referida a
los secundarios de los transformadores de corriente
para el lado de alto y bajo voltaje respectivamente.
Th y Tl: son la relación de transformación de los
transformadores de corriente para los lados de alto y
bajo voltaje respectivamente.
4.1.2 Protección de sobrecorriente de tiempo inverso
para los alimentadores (51P)
La protección de sobrecorriente de tiempo inverso
opera cuando la corriente que mide el relé supera el
umbral de ajuste de disparo con un tiempo de retardo,
dependiendo de la magnitud de la corriente.
4.1.4 Protección de sobrecorriente de tiempo inverso
para los alimentadores (51N)
Esta protección se la puede ajustar entre el 20%
y el 40% de la corriente nominal del transformador
de potencia [10]; sin embargo en subestaciones de
distribución los niveles de desbalance esperados son
altos por pérdida de carga debido a despeje de fallas
en ramales, por lo que se recomienda que este ajuste
debe ser entre 35% y 40%.
4.1.5 Protección de sobrecorriente de secuencia
negativa para los alimentadores (46)
En subestaciones de distribución la protección de
sobrecorriente de secuencia negativa es usada como
alarma por una posible condición de falla de línea a
línea, donde Ia = Ib e Ic = 0 y la corriente de secuencia
negativa es igual al 58% de Ia. [5] Ia, Ib e Ic son
corrientes de línea.
Esta protección tiene un ajuste menor al de la
función 51, ya que para condiciones normales de carga
balanceada las componentes de secuencia negativa en
este caso son cero.
4.1.6 Protección de baja frecuencia para los
alimentadores (81)
Para el ajuste de la corriente de operación del relé
se utiliza la máxima corriente de carga referida al
secundario del transformador de corriente respectivo,
y multiplicado por un factor que impida la incorrecta
operación por una posible condición de sobrecarga.
[9]
El CENACE implementa esquemas de alivio de
carga por baja frecuencia en cumplimiento de lo
establecido en la Regulación No. CONELEC 006/00
“Procedimientos de Despacho y Operación” y debe
ser implementado en el ajuste del relé de protección
de baja frecuencia por las Empresas Distribuidoras
del país. El último tiene vigencia para el período
estacional lluvioso de Octubre 2013 a Marzo 2014 y
se presenta a continuación [11]:
4.1.3 Protección de sobrecorriente instantáneo para
los alimentadores (50P)
Tabla 3: Esquema de alivio de carga por baja frecuencia del
CENACE.
La protección de sobrecorriente instantánea opera
de forma inmediata abriendo el interruptor principal
del transformador cuando se supera el valor de ajuste
de disparo en cualquiera de las fases.
El ajuste de esta protección se la realiza en base
a la máxima corriente de falla referida al secundario
del transformador de corriente respectivo, y es un
múltiplo de la corriente de operación de la protección
de sobrecorriente de tiempo inverso 51P. [9]
162
Porcentajes de Desconexión de Carga
Paso
Frecuencia
(Hz)
Tiempos de
actuación
(ciclos)
Desconexión
de carga (%)
Desconexión
acumulada de
carga (%)
1
59,4
12
6%
6%
2
59,2
12
6%
12%
3
59,1
12
6%
18%
4
59,0
12
6%
24%
5
58,8
12
6%
30%
6
58,6
12
7%
37%
7
58,5
12
8%
45%
La implementación del tiempo de actuación debe
considerar la temporización del relé más el tiempo de
apertura del interruptor principal.
• La corriente nominal del fusible debe ser igual
o mayor que la máxima corriente de carga,
incluyendo sobrecargas y armónico sostenidos,
en el punto de ubicación del fusible.
• El valor nominal de interrupción simétrico
debe ser igual o mayor que la máxima
corriente de falla calculada del lado de la carga
del fusible.
4.1.7 Ajuste de reconectadores para protección de
los alimentadores
En una línea aérea de distribución sólo un 10% de
las fallas son de carácter permanente, por tal motivo
es necesario el uso de reconectadores ya que estos
tienen la característica de volver a conectarse de
modo automático si la falla es temporal y permiten
aislar los cuatro circuitos de salida de la subestación;
además sirven de protección de respaldo para fallas
en ramales. [12]
Además debe considerarse otros factores que
afectan el tiempo de fusión de los fusibles como son
[12]:
• Las corrientes generadas por conexión de carga
incrementan la temperatura de los fusibles y
disminuyen su tiempo de fusión.
• Temperaturas ambiente mayores a 30 °C en
la ubicación del fusible reducen el tiempo de
fusión y temperaturas ambiente menores a 20
°C pueden incrementar el tiempo de fusión de
los fusibles.
• Las corrientes de fallas menores de corta
duración pueden fundir parcialmente al fusible
provocando una reducción significativa del
tiempo de fusión de estos.
El ajuste de la mínima corriente de operación del
reconectador debe ser igual o mayor que la máxima
corriente de carga del alimentador.
Sin embargo, para realizar el ajuste se debe analizar
posibles transferencias de carga entre alimentadores,
así como, que la mínima corriente de falla puede
ocurrir al final de la línea y que el reconectador debe
censar e interrumpir la falla.
En la selección de los reconectadores algunos
factores que deben considerarse son [12]:
• El voltaje nominal del reconectador debe ser
igual o mayor al voltaje del sistema.
• La capacidad nominal de interrupción del
reconectador debe ser igual o mayor que la
máxima corriente de falla.
• El reconectador debe coordinar con otros
dispositivos de protección tanto para el lado
de la fuente como del lado de la carga.
4.2. Selección de Fusibles
Los fusibles son usados, en los ramales de los
alimentadores, para protección de los transformadores
de distribución y bancos de capacitores.
4.2.1 Fusibles para protección de transformadores
de distribución
La selección de un fusible para protección de carga
depende de tres componentes que son [12]:
Existen tablas dadas por los fabricantes y normas
que ayudan en la selección de fusibles para la
protección de los transformadores de distribución,
estos varían de acuerdo a sus capacidades nominales
y del tipo de carga que alimentan. [13]
4.2.2 Fusibles para protección de bancos de
capacitores
Los fusibles para protección de los bancos de
capacitores, los cuales se encuentran ubicados en
varios puntos de los alimentadores, son escogidos
según los criterios establecidos por EEI-NEMA
basados en las curvas de ruptura del tanque. [12]
4.3. Coordinación
Para comenzar se debe diferenciar las zonas a
proteger y establecer los criterios de coordinación,
a continuación se muestra un ejemplo del diagrama
unifilar de una subestación de características antes
definidas.
• El voltaje nominal del fusible debe ser igual
o mayor que el voltaje de fase del sistema,
además debe ser considerado que el nivel
básico de aislamiento sea el adecuado.
163
Si las curvas están muy cercanas puede que el
reconectador dispare sin que el fusible haya
despejado la falla.
Tabla 4: Factores K usados para desplazar la curva rápida de
operación del reconectador en el tiempo.
Figura 1: Zonas de Protección
Para realizar la coordinación en el programa
CYMTCC debe seguirse el siguiente orden y los
criterios expuestos a continuación.
La coordinación se la realiza desde la carga hacia
la fuente, en este caso la fuente es el transformador de
poder en la subestación de distribución.
Una vez seleccionados los fusibles para
protección de ramales, estos deben coordinar con los
reconectadores que se encuentran a la salida de la
subestación para cada alimentador; esto es, la zona 3
debe coordinar con la zona 2.
Los fusibles tienen dos curvas características
de operación de mínimo tiempo de fusión y de
máximo tiempo de fusión; los reconectadores tienen
varias curvas de operación las cuales se difieren en
los tiempos de actuación. Las reglas que deben ser
consideradas para la coordinación de estos elementos
son [12]:
1) La curva de mínimo tiempo de fusión debe
ser mayor que el tiempo de despeje de la
curva rápida de operación del reconectador
multiplicada por un determinado factor para
la máxima corriente de falla en el punto de
ubicación del fusible.
Este factor permite que exista mayor tiempo
de operación entre las dos curvas con el fin de
evitar que el fusible se fatigue o se dañe y le
da tiempo para que este se enfríe. Además este
factor depende del tiempo de reconexión y la
secuencia de operación del reconectador. En la
Tabla 4 se presentan estos factores.
2) La curva de máximo tiempo de fusión no debe
superar el tiempo de operación de la curva lenta
del reconectador para la mínima corriente de
falla porque la idea es que el fusible se queme
despejando la falla antes que el reconectador
opere (de la orden de interrumpir la corriente).
Una operación
rápida
Dos operaciones
rápidas
Tiempo del
reconectador
(ciclos)
Promedio
Máximo
Promedio
Máximo
25 - 30
1,3
1,2
2
1,8
60
1,3
1,2
1,5
1,35
90
1,3
1,2
1,5
1,35
120
1,3
1,2
1,5
1,35
Para el caso de que se deba coordinar un intellirupter
con un reconectador, se lo realiza como que fuese otro
reconectador ya que sus características de operación
son similares; esto es, el intellirupter debe operar y
despejar la falla antes que el reconectador actué y
desconecte toda la carga del alimentador. Se debe
tener precaución al escoger el tiempo de operación,
ya que como son de diferente marca podrían operar
simultáneamente.
El siguiente paso es coordinar los reconectadores
con el relé de protección del transformador de
potencia, zona 2 con zona 1. El principio de
coordinación es que la suma de todas las operaciones
del reconectador debe ser más rápida que la curva de
operación del relé.
Para la máxima corriente de falla en la ubicación
del reconectador, la curva de operación del relé
referida al lado de la carga del transformador, debe
ser mayor que el tiempo promedio de despeje de falla
de la curva lenta de operación del reconectador, en un
intervalo de coordinación de 0,2 a 0,25 segundos. [14]
El relé y los reconectadores deben coordinar para
la mínima y máxima corrientes de falla, y verificar
que no exista problema alguno con la corriente de
magnetización del transformador.
Para protección de todos los cables y conductores
hay que tener presente que sus curvas de daño estén
por encima de las curvas de operación de los diferentes
elementos de protección.
5. DISPOSITIVO ELECTRÓNICO
INTELIGENTE (IED)
Los ajustes y coordinación expuestos en el
presente artículo aseguran que los elementos del
sistema serán protegidos. Sin embargo, cuando
164
ocurren fallas produciendo apagones, las empresas
eléctricas en ocasiones no detectan dichos apagones
hasta recibir reclamos de los consumidores, y para
determinar las zonas afectadas de la red es necesario
un desplazamiento físico del personal de la empresa.
Un avance tecnológico para mejorar el sistema
de protección y la confiablidad de la red es utilizar
un dispositivo electrónico inteligente (IED), lo que
permitirá a las empresas eléctricas conocer lo que
ocurre con la operación de las subestaciones en
tiempo real, además se podrá detectar fácilmente
la ocurrencia de fallas, limitando la duración de los
apagones y evitando posibles disparos innecesarios en
la subestación; características que no poseen los relés
convencionales como el TPU-2000R.
Una opción que se presenta para protección
diferencial de transformadores de potencia es el relé
SEL-487E que cumple con la norma IEEE C37.118
de medición sincrofasorial para ángulos de fase,
corrientes y voltajes. Este relé tiene la posibilidad
de ser programado y de guardar seis diferentes
configuraciones de ajustes, por ejemplo para una
condición de operación con sobrecarga, transferencias
de carga por mantenimiento de una subestación, por
variaciones de carga debido a cambio de estaciones
de clima o por una condición emergente de operación.
El relé SEL-487 tiene algunas funciones similares
a las del relé TPU-2000R, sin embargo presenta
protecciones adicionales como [12]:
• Protección para sobre o baja frecuencia.
• Protección para sobrecalentamiento
transformador.
• Regulación de voltaje – frecuencia.
Los dispositivos electrónicos inteligentes como
el SEL-487E mejoran el sistema de protección
reduciendo falsos disparos y proporcionando una
advertencia temprana de inestabilidad potencial de la
red, ya que permiten conocer lo que ocurre en tiempo
real.
El relé SEL-487E puede ser modificado de forma
remota desde un solo cuarto de control, permitiendo
tener comunicadas todas las subestaciones que tengan
este relé, con lo cual se enmarca dentro de las “Redes
Inteligentes”.
Cuando se utilizan relés convencionales dentro
de una subestación de distribución, se recomienda
realizar mantenimientos preventivos de todos los
dispositivos de protección a fin de evitar errores de
medición, falsos disparos, entre otros.
del
El programa CYMTCC puede ser utilizado
para configurar el relé con seis diferentes ajustes y
secuencias de operación, ya que este programa permite
modificar los parámetros en línea. La programación
del relé se la realiza en forma local o remota de tal
manera que se tiene un dispositivo inteligente.
6. CONCLUSIONES Y RECOMENDACIONES
La protección de los elementos de un sistema
de distribución está asegurada, si los criterios de
ajustes y coordinación expuestos en este artículo son
utilizados.
La utilización de la herramienta computacional
CYMTCC 4.5R13 presenta ventajas para coordinación
de protecciones ya que permite corregir los diagramas
de protección, cambiar la secuencia de operación,
realizar análisis de fallas y simulaciones con valores
reales de la red.
165
REFERENCIAS BIBLIOGRÁFICAS
[1] Stanley H. Horowitz, (2008). “Power System
Relaying”, Jhon Wiley & Sons Ltd, 3ra
Edición, West Sussex, Inglaterra.
[2] Jhon J. Grainger y William D. Stevenson Jr.,
(1996). “Análisis de Sistemas de Potencia”,
Editorial McGRAW-HILL/ Interamericana de
México, 1ra Edición en Español, México.
[3] Layana José, (2010). “Análisis de Falla en los
Sistemas Eléctricos de Potencia”, Editorial
Centro y Difusión de Publicaciones ESPOL,
1ra Edición, Guayaquil, Ecuador.
[4] Cooper Power Systems, (2011). "CYMTCC,
Coordinación de los dispositivos de
protección". CYME International, disponible
(online) en:
http://www.cyme.com/es/software/cymtcc/
B1100-09002S-CYMTCC.pdf
[5] ABB, (2002). "Unidad de Protección
para distribución ABB 2000r. Manual de
instrucciones". ABB IB 7.11.1.7-4. Disponible
(online) en: http://www05.abb.com/global/
scot/scot229.nsf/veritydisplay/51a7be14b9
9f695c852571fc004aedd5/$file/IB7.11.1.74E(Spanish).pdf
[6] S&C Electric Company, (2013). "S&C
IntelliRupter PulseCloser. Specifications".
S&C
Specification
Bulletin
766-31.
Disponible (online) en:
[7] Norma C57.13-1993 ANSI/IEEE Standard,
”Requirements For Instrument Transformers”.
[14] Castro G., Galarza C., Palacios C., (2013).
“Estudio de la Coordinación de las Protecciones
por Métodos Computarizados Aplicados a la
Subestación Alborada 1”, ESPOL, Ecuador.
[8] Schneider Electric España S.A., (2001).
"Transformadores de intensidad: errores
de especificación y soluciones". Cuaderno
Técnico Schneider n° 195. Disponible (online)
en:
http://download.schneider-electric.
com/files?p_File_Id=16911340&p_File_
Name=CT195.pdf
[9] J. Lewis Blackburn, (2006). “Protective
Relaying Principles and Applications”, Taylor
& Francis Group Ed, 3ra Edición, Florida,
USA.
[10] Ramírez Carlos, (2003). “Subestaciones
de Alta y Extra Alta Tensión”, Editorial
Impresoras Gráficas Ltda. Colombia.
[11] CENACE (2013). “Informe de determinación
del esquema de alivio de carga por baja
frecuencia para el S.N.I.”, Quito, Ecuador.
[12] McGraw-Edison Power Systems Division,
“Distribution System protection manual”,
McGraw Hill – Edison Company, Pittsburgh,
USA.
[15] SCHWEITZER
ENGINEERING
LABORATORIES,
(2012).
"SEL-487E
Transformer differential Relay" Schweitzer
Engineering Laboratories, Inc. Disponible
(online) en: https://www.selinc.com/SEL487E/
Cindy Palacios.- Nació en 1989
en la ciudad de Shell, Ecuador.
Realizó sus estudios secundarios
en la Unidad Educativa San
Vicente Ferrer y sus estudios
superiores en la Escuela Superior
Politécnica del Litoral, donde
obtuvo el título de Ingeniera en
Electricidad especialización Potencia en abril del
2013. Actualmente trabaja en la Dirección de
Transacciones Comerciales del Centro Nacional de
Control de Energía.
[13] Reproel: Tablas de aplicación, sistemas de baja
y media tensión, disponible (online) en: http://
www.dimater.com.ar/public/images/archivos/
tabla_aplicacion.pdf
166
Breaker DC basado en convertidores controlado por modos deslizantes
J. D. Valladolid
P.X. Navarrete
Universidad Politécnica Salesiana, Cuenca
Resumen— En este documento se presenta una
propuesta de control para un dispositivo de
seguridad dedicado a corriente continua basada
en la filosofía de los convertidores de CC (boost
- elevador), al mismo que se le aplicará una
técnica de control, denominada, control por modo
deslizante (Sliding Control ), para esto se propone
un modelo promediado del convertidor para
después aplicar una estrategia de control con una
superficie de deslizamiento, que tiene como fin
disminuir la corriente directa de carga al minimo
posible y así poder realizar la desconexión segura
del circuito, esta propuesta también reduce el
TVR (Transient Recovery Voltage) cercano a cero.
La simulación del comportamiento de nuestro
diseño ha sido desarrollado sobre la plataforma
de Matlab y Simulink.
Palabras Clave— Breaker DC, Control Deslizante,
Boost, Microgrid, TRV (Transient Recovery
Voltage).
Abstract— This paper presents a control proposal
for a direct current safety device based on the
philosophy of CC converters (boost – elevator)
which will receive a control method known as
sliding control mode. An averaged converter
model is proposed for this so that a control strategy
with a sliding surface can later be applied, in
order to reduce direct load current to the absolute
minimum possible and thus perform safe circuit
disconnection. This proposal also reduces the
TVR (Transient Recover Voltage) to close to zero.
The behavior simulation of our design has been
developed on the Matlab and Simulink Platform.
Index Terms— DC Circuit Breaker, Sliding
Control, Boost, Microgrid, TRV (Transient
Recovery Voltage).
1. INTRODUCCIÓN
La importancia del uso de energía renovable
a llevado a la ingeniería eléctrica y electrónica a
enfocar estudios sobre este tipo de energía “ilimitada”
pudiendo esta ser generada por fuentes inagotables
como generación fotovoltaico, eólico, solar, térmica
etc. [1]siendo estas, cada vez más accesibles a un
nivel local permitiendo aportar energía limpia a la
red. Esto lleva a una gestión de múltiples fuentes de
energía para su utilización posterior Fig. 1, este es el
concepto de las micro redes eléctricas (microgrids)
[2].
Figura 1: Microgrid estructura básica
La principal motivación es aportar con
investigación para la protección de estas redes, de
manera particular en el bus de corriente directa, es
decir entre la generación y la conversión DC/AC.
Uno de los principales problemas para el diseño de un
breaker para corriente directa es el no cruce natural
de cero, como es el caso de la corriente alterna, por lo
que, al interrumpirla de manera abrupta esta generara
una serie de problemas asociadas con la generación
de armónicos conocido como TVR, siendo este
un parámetro decisivo que limita la capacidad de
interrupción de un disyuntor o tiristor provocando
perdida de aislamiento y forzando a un reencendido
del circuito[14]. Una propuesta presentada se
basa en la utilización de superconductores [3] ,
teniendo una problemática en la implementación, el
acceso al nitrógeno liquido para la obtención de un
superconductor y a algunos gases que disminuyen el
arco provocado por la desconexión, es limitada. Ante
una corriente de falla (cortocircuito, sobre corriente )
es primordial llevar a la corriente a un valor mínimo
seguro antes de la desconexión, ante esto existe la
propuesta de un breaker de corriente directa de estado
sólido con una estrategia de control basada en lógica
difusa y redes neuronales [4] que controla un circuito
a base de tiristores para garantizar un apagado seguro
167
del breaker ante una corriente de falla. Basados en
este principio se ha propuesto utilizar la teoría de
convertidores elevadores DC-DC para forzar a la
corriente de falla, provocada en la carga, a cero o a un
valor seguro, apoyados en una estrategia de control
de modo deslizante, estableciendo así, una superficie
de deslizamiento de la corriente y un tiempo mínimo
para su descenso. Finalmente se evaluaran algunos
resultados obtenidos en el diseño y simulación.
[6]. A la corriente directa se la forzara a un cruce por
cero Fig. 3., análogamente, en la corriente alterna la
desconexión se la realiza en el cruce por cero.
2. CONVERTIDORES ELEVADORES DC-DC
(BOOST)
Este tipo de convertidores son usados para
aplicaciones en donde se requiere que la tensión
de salida sea mayor a la tensión de la fuente. Su
principio de funcionamiento se da por la combinación
de inductor capacitor que actúan como elementos
acumuladores de energía Fig. 2.
Figura 3: Corriente de Falla y voltaje de Recuperación
3.1. Circuito Propuesto y Modelado Matemático
El modelo (Breaker DC de estado sólido) propuesto
para el control de la corriente de falla en circuitos de
corriente continua, el cual está basado en la teoría
de los convertidores en conmutación, a este modelo
se le incluye adicionalmente un filtro de salida [7],
que disminuye el rizado de la salida y está compuesta
por los elementos L2 y C2 Fig. 4. Para completar el
modelo se incluye la R de carga que se denomina
impedancia de carga ya que no se la restringirá a ser
únicamente resistiva y finalmente la fuente Vp que
representa la fuente principal de tensión que será
protegida.
Figura 2: Configuracion Basica del Convertidor Boost
2.1. Principio de funcionamiento
El interruptor S Fig. 2., consiste en un elemento de
conmutación rápida generalmente se usa tecnología
Mosfet o IGBT por ser elementos que trabajan a
frecuencias altas. El elemento D es un diodo de
rápida recuperación, más rápida que el periodo de
conmutación del control, este diodo también actúa
como una barrera que impide que la energía acumulada
en el capacitor C se devuelva, además permite que la
energía almacenada en el inductor L se la suministre
al capacitor C, cada vez cargándolo a un nuevo nivel
de tensión en los intervalos de apertura y cierre del
elemento de conmutación [5].
Figura 4: Modelo propuesto como breaker DC
Para el modelado matemático del circuito. Se
comienza por describir el sistema mediante ecuaciones
diferenciales siendo [iL1 iL2 Vc1 Vc2 ] equivalentes a
[X1 X2 X3 X4 ] respectivamente.
3. CONTROL MODO DESLIZANTE DEL
CONVERTIDOR BOOST COMO BREAKER
DC DE ESTADO SÓLIDO
La propuesta de control es forzar a la corriente de
falla a una disminución para que alcance un nivel
bajo que asegure una desconexión confiable. De la
misma manera la tensión se recuperará en el tiempo
en que la pendiente lleve a la corriente al mínimo[4]
168
Por lo que el sistema queda representado como:
Al ser un sistema de estructura variable, es decir con
dos comportamientos según el valor del control u sea
1 o sea 0 para esto el sistema podrá ser representado
mediante un modelo de espacio de estado promediado
[8],[9] combinando los dos resultados en una única
ecuación que represente el sistema total.
Estado ON:
(1)
Estado OFF::
(2)
para conseguir una ecuación que contenga todo el
periodo [8][9] se tiene:
Idealmente se expresa como:
(5)
(6)
Siendo (6) la condición de invarianza [10], por lo
tanto en control equivalente se la puede expresar de la
siguiente manera:
(7)
Para que el sistema pueda alcanzar el régimen
deslizante sería necesario que S(x)(Bx+γ) Vsea
diferente de 0, a esta condición se la denomina
condición de transversalidad.
Aplicando la formula se tiene:
(3)
Para simplificar esta ecuación:
siendo X3 la tensión de salida:
Tomando en consideración que
(4)
Para f(x);
X2 y X4 son estados resultante de un filtro de la
salida del sistema, se propone reducir el sistema de
4 estados a 2, con X1 la corriente y X4 la tensión
de salida. Aplicando las mismas condiciones de
transversalidad en el sistema anterior, se llega a la
conclusión de la señal de control para el sistema.
Para f(x);
(8)
Reemplazando en el estado X2 y llevándolo al
equilibrio con un valor de X1 deseado, K se tiene:
3.2. Superficie de Deslizamiento y condición de
transversalidad
Para este caso particular es importante que la
tensión de salida no sea constante sino que vaya
evolucionando de tal forma que permita el descenso
de la corriente de la fuente Vp Fig. 4.
Para definir esta superficie estableceremos la
condición de superficie de deslizamiento [10].
(9)
(10)
Despejando K que es valor de la corriente X_1 en
el inductor se tiene:
(11)
En la Fig. 3. se requiere que la corriente disminuya
de forma lineal con pendiente negativa, esto supone
que la tensión a la salida del circuito diseñado se
incremente de manera lineal con pendiente positiva
169
Fig. 5., por lo que X2 d (X2 deseado) se expresara de
la forma:
La configuración del diseño usa el siguiente set de
valores:
If=10, 15 y 20A, para diferentes pruebas R=3Ω,
Vp=60V, L1=2mH, L2=20uH, C1=100uf y C2=20pf.
Se muestra la forma del comportamiento de las
señales en diferentes puntos de la simulación.
Figura 5: Trayectoria establecida para la tension de salida
(12)
Siendo t el eje del tiempo y T el tiempo estimado
en alcanzar el objetivo, If será la corriente de falla a la
que se quiere controlar. Finalmente la ecuación de la
superficie se presenta de la siguiente manera:
(13)
Figura 8: Corriente en L1, corriente de falla de 10A
IL1, Fig. 8., tiene forma cuadrática, la misma forma
que se define en (13), cumpliendo así el seguimiento
por parte del control deslizante.
3.3. Simulación y Resultados.
El circuito y ecuaciones diferenciales referentes a
la Fig. 4. se lo ha desarrollado sobre la plataforma
de Matlab y simulink. El esquema Fig. 6. muestra
que la retroalimentación del sistema de control es la
corriente pese a que la acción es la de la tensión, esto
se denomina control indirecto [10], [11].
Figura 9: Salida de tension VC2
La tensión de salida VC2 Fig. 9. se incrementa
de forma lineal como se establece en (12) y Fig.
5., el control indirecto de esta variable se ajusta al
planteamiento inicial, el tiempo para alcanzar el
objetivo es de t = 20ms.
Figura 6: Esquema general de control
La frecuencia de muestreo de nuestro modelo se
establece en 80Khz, se aplica la superficie K(13) en el
diseño estudiado. La señal de control u Fig. 7. estará
referida a la conmutación del mosfet, cambiando
su estado de 0 a 1 según sea el requerimiento de la
estrategia de control.
La corriente de falla provocada por efectos
desconocidos desde Vp, se la ha considerado para
la primera simulación de 10A, el algoritmo alcanza
su objetivo a un tiempo, que puede ser modificable,
en este caso de 20ms, alcanzando el objetivo en
este punto, la apertura de los tiristores principales
puede ejecutarse, minimizando al máximo cualquier
posible transitorio a la red y obteniendo una óptima
recuperación de la tensión Fig. 10.
Figura 7: Senal de control u, frecuencia de muestreo 80 Khz
170
4. CONCLUSIONES Y RECOMENDACIONES:
Figura 10: Control de corriente de falla 10A en 20mS
Así también se tiene un TRV en valores mínimos
que no comprometan a los tiristores. [4] Fig. 11. y 12.
El valor de la tensión de salida VC2 se ajusta
de manera aceptable, esto abre una posibilidad de
manejar el tiempo t, disminuyéndolo o ampliándolo,
para alcanzar el valor deseado. Tomando en cuenta
que nuestro objetivo de control es el de protección, el
tiempo no deberá ser muy grande. Aunque al disminuir
ese tiempo al mínimo exigiría una mayor cantidad
de energía en los elementos electrónicos. Gracias
a las simulaciones realizadas con varios objetivos
de tiempo, se puede estimar que un tiempo optimo
será 20ms y el mismo no afectara a los elementos
electrónicos.
El control en modo deslizante es bastante versátil
y robusto, sin embargo un problema asociado a
este tipo de control es el problema de un fenómeno
denominado Chattering [12], que a medida que
aumenta la corriente, este fenómeno se hace más
notable, pudiendo provocar inestabilidad al sistema
al incrementarse la If de manera desmesurada. Una
solución propuesta es la del filtro de salida L2 y C2,
al ser un filtro pasa bajo minimiza este fenómeno.
Por otro lado se tiene que al aumentar la frecuencia
de muestreo también disminuye el Chattering [12],
desafortunadamente se tiene restricciones para esta
solución, al estar sujetos a los limites de los elementos
de conmutación y frecuencia de muestreo.
Figura 11: TRV voltaje de salida
Figura 12: TRV GTO
Variando la I de falla a 15A Fig. 13. y a 20A fig.
14. se observa que los resultados no varían, el tiempo
en el que se alcanza el objetivo es similar a los 20mS.
Existen otros métodos para minimizar este
fenómeno desde el lado del control deslizante que
es el control extendido [10],[12] que en trabajos
posteriores se tratará como mejora del algoritmo.
REFERENCIAS BIBLIOGRÁFICAS
Figura 13: Corriente de falla 15A, desconexion cercana a
20mS
Figura 14: Corriente de falla 20A, desconexion cercana a
20mS
171
[1]
Pedro
Gómez
Vidal
“ENERGÍAS
RENOVABLES LA NECESIDAD DE UN
CAMBIO ENERGÉTICO” SUMUNTÁN Nº
23 (2006);
[2]
Michael R. Lavelle, P.E “Micro-Grid
Applications "Exploring micro-grids for
building energy applications Solving the
alternative energy management problem 2010
[3]
Yukinaga Morishita, Tatsuya Ishikawa,
Iwao
Yamaguchi,
Shigemitsu
Okabe
“Applications of DC Breakers and Concepts
for
Superconducting
Fault-Current
Limiter for a DC Distribution Network”.
IEEE TRANSACTIONS ON APPLIED
SUPERCONDUCTIVITY, VOL. 19, NO. 4,
AUGUST 2009.
[4] Minchala, L., Garza, L., and Calle, E. (2012).
An intelligent control approach for designing
a low voltage dc breaker. Number 4, pages
163–166.
[13]
[7] Lorenzo Pujol. “Implementación de control
digital mediante Linealización Entrada-Salida
para convertidor conmutado elevador con
filtro de salida”. Septiembre 2003.
[8] L. Martinez-Salamero, A. Cid-Pastor, A. El
Aroudi, R. Giral, J. Calvente, and G. RuizMagaz “Sliding-Mode Control of DC-DC
Switching Converters”.Preprints of the 18th
IFAC World Congress Milano (Italy) August
28 - September 2, 2011.
[9] Middlebrook, R.D. and Cuk, S. “A General
Unified Approach to Modeling Switched
Power Stages”, IEEE PESC Record, pp. 18-34
(1976)
[10] Francklin Rivas-Echeveria,Richard Márquez,
Orestes Llanes Santiago. “Control de Sistemas
no Lineales”.2005.
[11] María Isabel Arteaga Orosco. “Control no
Lineal de Convertidores conmutados CC/CC”.
Tesis Doctoral noviembre 2006.
Processing
MATLAB
and
and
[14] Dr. Bruce Mork “Effects of Transient Recovery
Voltages on Circuit Breaker Ratings ”EE5220
- Power System Transients. 2008.
[5] Freddy Fernando Valderrama, Henry Moreno
C, Héctor Manuel Vega “Análisis, simulación
y control de un convertidor de potencia dcdc
tipo boost”.Septiembre de 2011
[6] J. Shullaw. “DC Power Circuit Breaker Basics”.
IEEE HVCB Subcommittee Meeting October
12, 2011 Nashville.
MathWorks, “Signal
Communications with
Simulink”,2010.
Juan Diego Valladolid.- Nació en
Cuenca Ecuador, en 1984. Recibió su
título de Ingeniero electrónico en la
Universidad Politécnica Salesiana,
Cuenca 2010. Egresado de la Maestría
en Control y Automatización industrial
en la Universidad Politécnica Salesiana
en 2012. Se desempeña como Asistente Administrativo
en la Empresa Eléctrica Centro Sur. Docente en el
instituto Tecnológico Superior “Francisco Febres
Cordero” en las materias de Programación III,
Programación IV e Ingeniería del Software. Sus áreas
de interés están enmarcadas en: Sistemas de control
Moderno, Energía renovable, sistemas embebidos,
Electrónica de Potencia.
Pedro Xavier Navarrete.- Nació en
Cuenca Ecuador, en 1984. Recibió su
título de Ingeniero electrónico en la
Universidad Politécnica Salesiana,
Cuenca 2010. Egresado de la Maestría
en Control y Automatización industrial
en la Universidad Politécnica Salesiana en 2012. Se
desempeña como Electricista en la Dirección de
Distribución en la empresa Eléctrica Centro Sur. Sus
áreas de interés están enmarcadas en: Sistemas
Embebidos, RNAs, Control Moderno, Energía
renovable, Electrónica de Potencia.
[12] Orestes Llanes Santiago, Alberto Prieto
Moreno. “Control discontinuo dinámico para
control activo de vibraciones mecánicas".
Revista Cubana de Ingeniería, 1(1), 19-28,
2010.
172
Diseño e implementación de un Registrador de Disturbios de frecuencia
para análisis dinámico de sistemas eléctricos de potencia
M. D. Dávila
C. E. Landázuri
Universidad Politécnica Salesiana
Resumen­— Diseño e implementación de un equipo
de precisión para registrar la frecuencia de la
red eléctrica en la Empresa Eléctrica Regional
Centro Sur de la ciudad de Cuenca. Descripción
de las aplicaciones relacionadas con el equipo
en el análisis dinámico de sistemas eléctricos de
potencia y en redes de medición de frecuencia.
Palabras Clave— Red de medición de Frecuencia,
Registrador de Disturbios de Frecuencia, Diseño
electrónico, Análisis dinámico de Sistemas de
Potencia
Abstract­— The design and implementation of
a precision recorder to be used for the electric
network of the Empresa Electrica Regional Centro
Sur (Regional South Center Electricity Company)
in the city of Cuenca is presented in this paper.
A description of the equipment applications for
dynamic analysis of electric power systems and
grid frequency measurement is also depicted.
Index Terms— Grid Frequency Measurement,
Frequency Disturbance Recorder, Electronic
Design, Dynamic Analysis of Power Systems.
Por último, en el tercer capítulo se revisará las
aplicaciones de equipos similares en redes inteligentes
de medición de frecuencia, las cuales se aplican en
mercados eléctricos en competencia, y en sistemas de
más de un generador que puedan controlar la frecuencia
del sistema. Se describen de las aplicaciones referentes
al diseño logrado como son: Medición de frecuencia para
la red de distribución de la Centro Sur, aplicación para
una red de medición de frecuencia nacional, esquemas de
alivio de carga en base a datos en tiempo real, análisis de
frecuencia inter-área.
2. DISEÑO ELECTRÓNICO DE HARDWARE,
FIRMWARE Y SOFTWARE
El diseño del Registrador de Disturbios de frecuencia
constituye un desarrollo a medida, basado en la
necesidad de la empresa de la medición de frecuencia en
la red de distribución. Los frecuencímetros comerciales
analizados no cumplen con las características de
precisión y visualización requeridas, por lo que se realizó
un diseño integral para esta aplicación. Los aspectos
más importantes del diseño se tratarán a continuación.
Los requerimientos de diseños planteados por la
CENTROSUR fueron los siguientes:
• Diseño de un equipo de medición y registro de
frecuencia de precisión en la red eléctrica en baja
tensión.
• El equipo debe comunicarse con un software
de aplicación mediante el protocolo USB11,
y registrar la frecuencia en un dispositivo de
memoria.
• El equipo debe mantener un registro de
frecuencia con información sobre la hora y fecha
de la medición. Esta información horaria debe
obtenerse mediante un GPS22.
• El equipo debe diseñarse teniendo en cuenta la
optimización de recursos, y alcanzar el menor
costo posible de construcción e implementación.
1. INTRODUCCIÓN
En el presente ensayo se tratará el diseño eléctrico
y electrónico de un prototipo registrador de disturbios
de frecuencia para la red de distribución de la Empresa
Eléctrica Regional Centro Sur C.A. de la ciudad de
Cuenca. En el primer capítulo se tratará el diseño
electrónico tanto a nivel de software como de firmware
y hardware, el diseño del equipo en función de las
necesidades de la empresa, partiendo de la condición
de construir un equipo de precisión, con características
superiores a las ofrecidas en el mercado y de bajo costo.
En el segundo capítulo se revisa el diseño del software
de control y visualización del equipo, así también como
las características de análisis diseñadas para el caso. Se
realiza un análisis descriptivo de las características de
precisión y operación logradas con el diseño planteado.
Con estos requisitos en consideración, se diseñó el
prototipo del registrador de frecuencia (fig.1). El cual
1 Universal Serial Bus o bus serial universal
2 Global Positioning System o sistema de posicionamiento global
173
5
6
Light Emitting Diode o diodo emisor de luz.
Real Time Clock o reloj de tiempo real. Es un circuito integrado de
memoria que graba la hora y fecha.
Secure Digital. Memoria extraíble de uso común en dispositivos
electrónicos de consumo.
El firmware es el código de programación que se utiliza en los
microcontroladores.
174
18F452
uC
principal
FT232R
módulo
USB-serial
30F4011
uC secundario
(cruce
por cero)
C
3
4
Z
GPS-10920
Módulo
GPS serial
12
El diseño del firmware en el equipo se lo realizó
en dos microcontroladores cada uno programado
en lenguaje Basic para la fácil comprensión y
mantenimiento del personal encargado.
I
2.1. Diseño de Firmware6
Memoria
SD
SP
El diseño del registrador de frecuencia se basa
en dos circuitos principales, uno de control y
comunicación, y otro dedicado a la adquisición
de la señal, detección de cruce por cero para la
medición de frecuencia, y filtrado. El circuito de
control tiene dos microcontroladores encargados del
funcionamiento total del equipo. El microcontrolador
principal permite la comunicación del equipo con el
computador, además realiza la labor de adquisición
de datos del GPS y la escritura en la memoria SD. El
diseño de firmware en ambos microcontroladores se
detalla a continuación:
EM-100
módulo
ethernet
96 Ser
00 ial
b/
8b
it
• Visualización de frecuencia mediante una
matriz de LEDs.
• Comunicación mediante Ethernet y USB.
• Obtención de hora y fecha mediante GPS
• Registro de hora y fecha con RTC4.
• Registro de frecuencia en memoria SD5.
Serial
9600b/8bit
El circuito electrónico diseñado consta de las
siguientes características principales:
El microcontrolador que actúa como principal
en el equipo es el PIC18F452 de Microchip [1]
(de ahora en adelante llamado U1). Se encuentra
funcionando a 20MHz, y es el encargado de
controlar la comunicación con los módulos USB,
Ethernet, GPS, RTC y SD. Además interviene en la
comunicación con el microcontrolador de cruce por
cero. El diseño se basa en un diagrama de conexiones
en estrella (fig.2) y la comunicación utilizada entre
los módulos es del tipo serial. El firmware utilizado
en el microcontrolador principal coordina las tareas
de comunicación del equipo (fig.3), para lo cual se
programaron subrutinas de lectura de frecuencia y
lectura de los datos del GPS y del RTC, la escritura
y lectura de la memoria SD, el control del módulo
Ethernet, y del módulo USB.
Serial
9600b/8bit
/par
Figura 1: Registrador de frecuencia instalado en el centro de
contacto de la CENTROSUR
a) Microcontrolador Principal
96 Ser
00 ial
/p b/8b
ar it
consta de dos partes: La caja de control donde se alberga
el circuito electrónico y los elementos de comunicación,
y una matriz de LEDs3 para la visualización de la
frecuencia del sistema.
DS-1307
Real Time
Clock
Figura 2: Diagrama de conexiones entre el microcontrolador
principal y los módulos de comunicación
enviar datos entre el microcontrolador principal y la
aplicación de control en LabView.
INICIO
Leer Frecuencias y
comparar con límites
Leer hora y
fecha del GPS
Escribir en
memoria 3D
Figura 5: Diagrama de conexión básico del FTDI FT232R [3]
USB
¿conectado?
El microcontrolador secundario utilizado es
el DsPIC30F4011 de microchip [4] (de ahora en
adelante nombrado U2), el cual funciona a 80MHz.
U2 se encarga de capturar la frecuencia de la red
mediante múltiples entradas tanto analógicas como
digitales. Al funcionar a altas frecuencias, permite
una resolución óptima para la aplicación puntual
requerida. U2 tiene solamente dos tareas dentro del
diseño, capturar la frecuencia en todas sus entradas
obteniendo el promedio de las mismas, y enviar el
dato de frecuencia por su puerto serial a U1 (fig.6).
b) Microcontrolador secundario
FIN
Figura 3: Diagrama de flujo principal
Cruce 4
Cruce 3
Analog 1
an
aló
.
Cruce 2
gic
ital
dig
Para la actualización automática de la hora y
fecha utilizada para los históricos de frecuencia, se
utilizó un Módulo GPS-10920 Venus [2] (fig. 4).
Este módulo permite la adquisición de datos de hora
y fecha en formato NMEA7 de manera serial, con lo
que el usuario puede interpretar directamente la trama
requerida para la programación.
o
digital
ital
gi
ta
di
Cruce 5
Cruce 6
UI
Figura 4: Módulo GPS-10920 [2]
Para la comunicación USB entre el equipo y un
computador, se utilizó un conversor serial-USB
FT232R [3] (fig.5). Es un módulo ampliamente
utilizado en el mercado, por lo que el mantenimiento
del mismo se puede realizar fácilmente. Es un
conversor serial-USB transparente, permitiendo
7
30F4011
uC secundario
(cruce
por cero)
l
dig
digital
Enviar datos
por USB
Serial
9600b/par
Leer límites
Programados
Enviar datos por
ethernet
National Marine Electronics Association. Es un formato de datos
utilizado en módulos GPS donde se expresa la hora, fecha, y posición
del equipo.
Figura 6: Diagrama de conexión del microcontrolador
secundario U2
El firmware utilizado en el microcontrolador
secundario coordina las tareas de medición de cruces
por cero mediante una entrada analógica y una digital,
compara los resultados de ambas entradas y obtiene un
promedio de la frecuencia medida (fig.7).
175
INICIO
Leer Frecuencia canal
analógico
Leer Frecuencia canal
digital
Figura 9: Ubicación del módulo GPS en la placa de control
Promedio
frecuencia
b) Comunicación Ethernet
El modulo Ethernet se conecta a U1 mediante
un Puerto serial por hardware, además se provee al
usuario de LEDs de visualización para observar el
correcto funcionamiento del módulo (fig.10).
Enviar datos
por serial
FIN
a) Comunicación USB
Figura 7: Diagrama de flujo para el microcontrolador U2
2.2. Diseño de hardware
La placa de control se diseñó en función de las hojas
de aplicación de los diferentes integrados utilizados.
Se procuró mantener el diseño con un factor de forma
de placa de entrenamiento, es decir, dejando los
pines de microcontroladores y módulos conectados a
peinetas, lo cual permite el posterior análisis de las
señales utilizadas (fig.8).
La comunicación de U1 con el módulo USB se
realiza mediante un puerto serial virtual creado en el
compilador. Se utiliza una peineta de configuración
para medir las señales de comunicación (fig.11).
Figura 10: Ubicación del módulo Ethernet-serial en la placa
de control
Figura 8: Placa de control
A continuación se explicarán los esquemas en
bloques más importantes.
a) Comunicación GPS
El módulo GPS se conecta al microcontrolador
principal mediante un puerto serial virtual creado en
el compilador y se cuenta con una batería de respaldo
para el arranque rápido del módulo. El diseño de la
placa de control se realizó considerando la conexión
de una antena externa (fig.9).
Figura 11: Ubicación del módulo serial-USB
b) Comunicación con la memoria SD
Con el objetivo de almacenar históricos de
frecuencia, se utiliza una memoria SD, la cual se
comunica con U1 mediante un puerto serial por
hardware. Se utilizan además dos circuitos integrados
para la conversión de niveles lógicos de 3.3 voltios
(LVTTL) a 5 voltios (TTL) (fig.12).
176
• Reloj de tiempo real incorporado
• Recopilación de históricos de frecuencia
mediante memoria SD
• Precisión de +/-15mHz
• Software de visualización en tiempo real, y de
análisis de históricos en LabView
3. APLICACIONES EN REDES DE MEDICIÓN
DE FRECUENCIA
Figura 12: Ubicación de la interfaz con la memoria SD
2.3. Diseño del software de control
El frecuencímetro permite la comunicación con un
software de control en el computador. El software
se diseñó en LabView 2010, permitiendo una interfaz
de usuario de altas prestaciones (fig.13). Nos
permite visualizar los límites de frecuencia, alarmas,
frecuencia medida y hora del equipo. Además el
software es la herramienta de análisis encargada de
visualizar los históricos de frecuencia guardados en la
memoria SD del equipo (fig.14).
En los sistemas eléctricos de potencia el control de
frecuencia es una actividad fundamental para mantener
la estabilidad del sistema y evitar un apagón general
en el caso de variaciones de carga. Para el control de
la frecuencia se utilizan equipos de medición en cada
unidad de generación con el fin de responder a dichas
variaciones de carga compensando la alimentación de
la máquina síncrona. Para tener una idea global de las
aplicaciones de un equipo de medición de frecuencia
con las características del prototipo diseñado en este
ensayo debemos conocer las implicaciones de la
variación de frecuencia en pequeña escala.
El conocimiento general que tenemos del SNI8.
nos indica que la frecuencia es la misma en todo el
sistema, y es dictada por la central hidroeléctrica
Hidropaute. Además conocemos que existen
pequeñas variaciones de frecuencia (fig.15), las cuales
se compensan con el AGC9 existente y el control
primario de frecuencia de las máquinas síncronas.
Estas variaciones de frecuencia se encuentran en el
orden de los milihercios, y normalmente no interfieren
con la estabilidad del SNI pues si las frecuencias entre
generadores son muy grandes, el control de frecuencia
hace que las unidades de menor potencia sean las que
se desconecten primero.
Figura 13: Ventanas del software de monitoreo
Figura 14: Ventana análisis
2.4. Características Técnicas finales
El diseño a medida del registrador de disturbios de
frecuencia de la Empresa Eléctrica Regional Centro
Sur C.A. de la ciudad de Cuenca tiene las siguientes
características técnicas:
• Microcontrolador principal: PIC18f452 a
20MHz
• Microcontrolador para cruce por cero:
DSPIC30F4011 a 80MHz
• Comunicación USB mediante módulo FTDI
FT232R
• Comunicación Ethernet mediante módulo
Tibbo Em-100
• Sincronización de hora y fecha mediante
módulo GPS
Figura 15: Variaciones de frecuencia comunes en un sistema
eléctrico de potencia [5]
Este escenario cambiar cuando la central
hidroeléctrica Coca Codo Sinclair entre en
funcionamiento pues tendríamos dos grandes
generadores disputando el control de frecuencia,
es decir, podríamos pensar en un AGC de dos áreas
principales. Así, por la cercanía, Hidropaute podría
influir de mayor manera en la frecuencia de la zona
8
9
177
Sistema Nacional Interconectado
Control Automático de Generación
sur del país, mientras que Coca Codo Sinclair podría
tener mayor influencia en la zona norte. Por lo tanto
las frecuencias inter-área (o en este caso se puede
analizar como inter-generadores) deben permanecer
muy próximas para evitar la salida de sincronismo de
las maquinas.
a la inercia de las masas rotóricas de los generadores,
la frecuencia disminuye a niveles normales (60.03Hz)
pero las variaciones duran aproximadamente 10
segundos, lo que ocasiona la salida de sincronismo de
varios generadores.
El efecto de tener múltiples generadores de gran
potencia que pueden disputar el control de frecuencia,
es que momentáneamente existan varias frecuencias
dentro de un mismo sistema nacional interconectado
[5]. Esto no quiere decir que el sistema funcione en
frecuencias muy separadas unas de otras, sino que
conforme añadimos más precisión a los sistemas de
medición, se observa una variación de frecuencia
considerable (fig. 16).
En la figura 16 se muestra la distribución de las
diferentes frecuencias a las que trabaja el sistema
nacional interconectado de Estados Unidos []. La
frecuencia nominal es de 60Hz, pero como se observa
existen sectores que trabajan desde 59.98Hz (azul)
hasta 60.02Hz (rojo), es decir, existe una diferencia de
0.04Hz entre diferentes sectores del sistema. Aunque
esta variación no parezca significativa, estudios
realizados en el sistema de Estados Unidos [5]
demuestran que estas variaciones se dan en eventos
como el apagón general del 2011 en la Costa Este (fig.
17).
Figura 17: Variación de frecuencia de los generadores en el
apagón del 2011 en la Costa Este de Estados Unidos [8]
Por lo tanto, las variaciones muy pequeñas de
frecuencia que no sean adecuadamente informadas
al centro de control de energía pueden ocasionar
inestabilidad en el sistema de potencia.
Este
comportamiento del sistema es un estudio nuevo,
por lo que, las principales aplicaciones de equipos de
medición y registro de frecuencia como el diseñado
en el presente ensayo, son las siguientes:
a) Medición de frecuencia local
En cuanto a la realidad del sistema de distribución
de la ciudad de Cuenca, se tienen dos conexiones
al Sistema Nacional Interconectado, pero si estas
conexiones fallan, el sistema de distribución funciona
como isla. Para el control de frecuencia en esta
situación la Empresa Eléctrica Regional Centro Sur
C.A. (CENTROSUR) optó por el diseño del prototipo
de monitoreo y registro de frecuencia tratado en este
ensayo. Pero esta aplicación es la más simple que se
puede tratar con un equipo de las características
Figura 16: Mapa de frecuencias del sistema de potencia
nacional interconectado de Estados Unidos [6]
b) Red de frecuencia
Como se puede observar en la figura 17, el evento
que inicia el apagón causa un aumento de frecuencia
(60.170Hz), en ese momento el control primario varía
las alimentaciones de las máquinas síncronas logrando
una disminución de la frecuencia de los generadores,
pero debido a la naturaleza de los sistemas de control y
En el caso del Ecuador, al mantener una
estructura de monopolio en generación, transmisión
y distribución, la comunicación de parámetros
de frecuencia se realiza directamente sobre la red
de telecomunicaciones existente (radiofrecuencia
y fibra óptica), donde las mediciones se realizan
178
en generadores y en subestaciones del sistema de
transmisión.
En sistemas muy grandes o que funcionan en
competencia de generación (como en el caso de
Estados Unidos), se utilizan equipos de medición de
frecuencia distribuidos en las redes de cada proveedor,
los cuales envían la información sobre dicha medición
al centro de control de energía de cada país, es decir,
la infraestructura de comunicación es independiente
una de otra para cada zona del AGC. Esto ocasiona
un inconveniente, pues la información sobre
parámetros eléctricos como la frecuencia, pueden
demorar mucho tiempo en llegar al centro de control,
ya que dependen del despliegue y desempeño de las
redes de telecomunicaciones de los proveedores.
Este problema ha causado apagones generales por
variaciones muy pequeñas de frecuencia.
Para solucionar dicho inconveniente, se creó una
red de registradores de frecuencia conocida como
FNET (Frequency Monitoring Nertwok o Red de
monitoreo de Frecuencia), la cual utiliza la red de
telecomunicaciones local [5], es decir, utiliza las
plataformas de acceso a internet de la población
(fig.18).
Figura 19: Registrador de disturbios de frecuencia [5]
Este modelo de red de medición presenta una
ventaja muy importante pues por experiencia las
redes de comunicación de las empresas de generación
y transmisión pueden fallar en momentos críticos,
mientras que la probabilidad de que los sistemas de
telecomunicaciones para usuarios privados fallen es
muy baja.
c) Esquemas de alivio de carga con información
en tiempo real
Los esquemas de alivio de carga permiten recuperar
la frecuencia nominal ante variaciones grandes de
carga en el SNI. Estos esquemas se realizan en base
a simulaciones del comportamiento del sistema y
mediante históricos, lo cual introduce una posibilidad
de error. Este error podría disminuirse con un
monitoreo en tiempo real del sistema, logrando tomar
decisiones con datos instantáneos.
Una red de frecuencia distribuida en el país,
permitiría la obtención de datos instantáneos de
frecuencia para mejorar el histórico en función del
sector donde se vaya a aplicar el esquema de alivio
de carga, es decir, consistiría en una herramienta de
diseño, corrección y planificación para el ingeniero
encargado de establecer los esquemas.
Figura 18: FNET diseñada para el monitoreo de frecuencia del
sistema de potencia estadounidense
Esto implica que los equipos de medición de
frecuencia se conectan en la red de baja tensión, lo que
permite la obtención de parámetros directamente en la
carga del sistema, y además logra que se mantenga
una independencia del estado de la plataforma de
telecomunicaciones de cada proveedor, migrando
la comunicación de parámetros a las redes públicas
y privadas para servicio de internet [5]. El equipo
utilizado recibe el nombre de FDR (Frequency
Disturbance Recorder o Registrador de Disturbios
de Frecuencia) el cual se diferencia de los PMU
(Phasor Measurement Unit o Unidades de Medición
de Fasores) pues utiliza la red de internet pública para
la comunicación (fig. 19).
4. CONCLUSIONES Y RECOMENDACIONES
El registrador de disturbios de frecuencia
diseñado cumple con las características solicitadas
por la Centrosur, con lo que el Departamento de
Supervisión y Operación cuenta con un instrumento
para monitorear la frecuencia de la red eléctrica en
caso de funcionamiento como isla. Se observó que la
técnica de medición de cruce por cero utilizada, logró
una precisión de +/-15mHz, lo cual es aceptable para
la aplicación requerida, pero insuficiente para análisis
más avanzados.
El diseño planteado, permite la medición de
frecuencia de la red eléctrica, sin la dependencia del
anillo de fibra óptica, o equipos de comunicación
propios de la empresa, los cuales en base al historial
analizado no siempre cumplen con los criterios de
confiabilidad requeridos para un correcto análisis
179
dinámico de frecuencia. Por lo tanto, la transmisión de
datos de medición de frecuencia a través de internet,
lograría la transmisión en tiempo real del estado del
sistema en el punto de carga, sin la necesidad de una
red de comunicación propia.
información de sistemas de potencia de la
universidad de Tennessee. Virginia, Estados
Unidos.
[6] Laboratorio de tecnología de información de
sistemas de potencia de la universidad de
Tennessee (2013). “U.S. Frequency Gradient
Map”. Documento en línea disponible en
http://fnetpublic.utk.edu/gradientmap.html
El diseño tiene características de comunicación que
permiten hacer uso de la información adquirida para su
utilización dentro de una red inteligente de medición
de frecuencia remota directamente en el usuario final.
Una red inteligente de frecuencia permite al operador
del sistema eléctrico, tomar decisiones de control,
basado en el comportamiento dinámico instantáneo
del sistema. Las mediciones de frecuencia en la red
de baja tensión, permiten un acercamiento más real al
comportamiento del sistema, lo que logra un control
más apropiado en estudios de esquemas de alivio de
carga, y comportamiento dinámico antes de un apagón
general (blackout)..
[7] Laboratorio de tecnología de información de
sistemas de potencia de la universidad de
Tennessee (2013). “World-Wide Frequency
Map”. Documento en línea disponible en
http://powerit.utk.edu/worldmap/
[8] Laboratorio de tecnología de información de
sistemas de potencia de la universidad de
Tennessee (2013). “Southwest blackout”.
Documento en línea disponible en http://
fnetpublic.utk.edu/eventsamples/20110908.
jpg
REFERENCIAS BIBLIOGRÁFICAS
[1] Microchip Technology Incorporated (2006).
“PIC18FXX2 Data Sheet: High-Performance,
Enhanced Flash Microcontrollers with 10-Bit
A/D”. Estados Unidos.
[2] Sparkfun Electronics (2013). “Venus GPS
Logger with SMA Connector”. Documento en
línea disponible en https://www.sparkfun.com/
products/10920
[3] Future Technology Devices International Ltd
(2010). “FT232R USB UART IC Datasheet
Version 2.10”. Documento en línea disponible
en
http://www.ftdichip.com/Support/
Documents/DataSheets/ICs/DS_FT232R.pdf.
Estados Unidos.
[4] Microchip Technology Incorporated (2005).
“DSPIC30F4011/4012 Data Sheet: High
Performance Digital Signal Controllers”.
Documento en línea disponible en http://
ww1.microchip.com/downloads/en/
devicedoc/70135c.pdf. Estados Unidos.
[5] Zhan Zhong (2005). “Power Systems Dynamic
Monitoring System Design and Applications”.
Tesis para la obtención del título de Doctor
en Filosofía (PhD) en ingeniería eléctrica y
computación. Laboratorio de tecnología de
Carlos
Emilio
Landázuri
Paredes.- Nació en Quito,
Ecuador en 1979. Recibió su
título de Ingeniero en Electrónica
de la Universidad Politécnica
Salesiana en 2004. Actualmente
se encuentra en proceso de
obtención de su título de Master
en Telemática en la Universidad de Cuenca. Su
campo de investigación está relacionado con el área
de control y telecomunicaciones para sistemas
SCADA, automatización de subestaciones eléctricas
y automatización de los sistemas eléctricos de
distribución.
Miguel Alberto Dávila Sacoto.Nació en Cuenca, el 4 de julio de
1988. Ingeniero Electrónico con
mención en Sistemas Industriales
y Telecomunicaciones de la
Universidad Politécnica Salesiana
en 2012. Egresado de Ingeniería
Eléctrica de la Universidad
Politécnica Salesiana sede Cuenca. Actualmente se
desempeña como docente de Instalaciones Eléctricas
de Interior, Automatismos y Cuadros Eléctricos, e
Instalaciones Automatizadas en Viviendas y Edificios
en la Unidad Educativa Técnico Salesiano.
180
Monitoreo de las oscilaciones de baja frecuencia del Sistema Nacional
Interconectado a partir de los registros en tiempo real
J. C. Cepeda
A. B. De La Torre
Centro Nacional de Control de Energía, CENACE
Resumen— La determinación de los modos
oscilatorios, en tiempo real, brinda al operador
una alerta temprana en caso de presentarse
riesgo de inestabilidad oscilatoria en el sistema
de potencia. Con el desarrollo de la tecnología
de medición sincrofasorial, nuevos algoritmos de
identificación modal han sido perfeccionados con el
objetivo de aplicarlos en tiempo real. Actualmente,
CENACE dispone de un sistema de monitoreo
de área extendida (WAMS), administrado por
la aplicación WAProtector, la cual dispone
de un algoritmo propietario de identificación
modal. Esta aplicación brinda al operador la
posibilidad de monitorear oscilaciones del Sistema
Nacional Interconectado (SNI) en tiempo real y
adicionalmente entrega información valiosa que
permite caracterizar al SNI a través de adecuados
análisis post-operativos. Este artículo presenta
un marco conceptual del problema de estabilidad
oscilatoria, así como una descripción del objetivo
de la identificación modal. Adicionalmente, se
describe una propuesta metodológica que, a través
de análisis estadístico de los modos oscilatorios,
permite procesar la información obtenida de
WAProtector con el objetivo de caracterizar los
modos críticos existentes en el SNI. Asimismo,
se resalta la versatilidad de las herramientas
gráficas de WAProtector para analizar eventos
oscilatorios que se presentan en tiempo real.
Palabras clave— Estabilidad oscilatoria, PMU,
WAMS, identificación modal.
Abstract— The real-time identification of
oscillatory modes gives the operator early warning
in the event of an oscillation instability risk in
the power system occurs. With the development
of synchrophasor measurement technology, new
modal identification algorithms have been perfected
for real-time application. CENACE currently has
a wide area monitoring system (WAMS) that is
managed by the WAProtector application, which
uses a modal identification proprietary algorithm.
This application gives the operator the possibility
of monitoring oscillations in the National
Interconnected System (SNI) in real time and also
provides valuable information to characterize the
SNI through adequate post-operative analysis.
This paper presents a conceptual framework of
the oscillation instability problem, as well as a
description of the modal identification objective.
In addition, a methodological proposal that allows
WAProtector information to be processed in
order to characterize the critical modes that exist
in the SNI is described. This approach is based
on a statistical analysis of oscillation modes. In
the same manner, the versatility of WAProtector
graphic tools to analyse oscillation events that
occur in real time, is highlighted throughout the
article.
Index Terms— Oscillatory
WAMS, Modal Identification.
Stability,
PMU,
1. INTRODUCCIÓN
La operación moderna de los sistemas eléctricos
de potencia (SEP) se encuentra atravesando varios
retos asociados a las crecientes complejidades e
incertidumbres en la planificación y gestión operativa.
Bajos estas condiciones, el SEP es más susceptible
a atravesar condiciones de estrés en las cuales, la
ocurrencia de oscilaciones electromecánicas de baja
frecuencia, con poco amortiguamiento, podrían conducir
a una situación de vulnerabilidad que eventualmente
provoque un colapso del sistema [1]. En este contexto,
varias estrategias operativas han sido consideradas con el
objetivo de mejorar la seguridad oscilatoria del sistema,
tales como el re-despacho de generación [2], o el manejo
de congestión mediante la transferencia de flujos entre
vínculos (a través, de por ejemplo, dispositivos FACTS)
[3], [4]. Otras soluciones consideran el cálculo de flujo
óptimo de potencia con restricciones de seguridad
oscilatoria [5], o el adecuado ajuste de estabilizadores del
sistema de potencia (PSS) [4], [6]. Sin embargo, todas
estas soluciones se basan en estudios fuera de línea, los
cuales podrían ignorar ciertas condiciones críticas que
eventualmente lleven al sistema a eventos en cascada
y subsecuentes colapsos. Por lo tanto, se presenta la
necesidad de poseer una herramienta de evaluación, en
tiempo real, de los modos oscilatorios críticos, de manera
que el operador tenga información suficiente para decidir
acciones sobre el SEP cuando se presenten oscilaciones
que puedan ser perjudiciales para la estabilidad del
sistema [7].
181
En la actualidad, modernas tecnologías tales como
los medidores sincrofasoriales (PMU – Phasor
Measurement Unit) y los sistemas de monitoreo de
área extendida (WAMS – Wide Area Measurement
System) ofrecen una novedosa estructura que facilita el
diseño de mecanismos capaces de evaluar la estabilidad
oscilatoria del sistema en tiempo real [7]. En tiempo
real, oscilaciones electromecánicas de baja frecuencia
pueden ser identificadas a través del procesamiento de
señales eléctricas, obteniendo sus modos de oscilación
y su amortiguamiento, con métodos de identificación
modal [7]. Actualmente, la Corporación Centro Nacional
de Control de Energía (CENACE), como organismo
operador del Sistema Nacional Interconectado (SNI),
dispone de un sistema WAMS, y de una aplicación de
identificación modal en tiempo real (a través del software
WAProtector de ELPROS).
La aplicación WAProtector posee un algoritmo
propietario que entrega resultados de la composición
modal de señales de potencia activa. Estos datos requieren
de un adecuado procesamiento con el objetivo de obtener
información valiosa del comportamiento oscilatorio del
sistema que permita caracterizarlo adecuadamente.
La caracterización oscilatoria del SNI servirá como
base de referencia para la estructuración de acciones de
control preventivo (despacho programado de generación
o calibración de PSSs), así como acciones de control
correctivo (re-despacho de unidades de respuesta rápida
o modificaciones topológicas), que permitirán mejorar la
seguridad operativa del SEP.
Este trabajo presenta una propuesta metodológica que
permite caracterizar el comportamiento oscilatorio del
SNI, basada principalmente en el análisis estadístico de
los modos oscilatorios pobremente amortiguados.
2. MARCO TEÓRICO REFERENCIAL
2.1. Estabilidad Oscilatoria
Al producirse variaciones de carga o generación en
sistemas de potencia, los generadores tratan de encontrar
nuevos estados de operación estable, produciéndose
oscilaciones de potencia y frecuencia ocasionadas
por los intercambios de energía eléctrica entre dichas
unidades. Las oscilaciones son caracterizadas mediante
los denominados modos de oscilación que pueden
clasificarse, en forma general, en los siguientes [8]:
Los modos locales se asocian con oscilaciones
entre rotores de un grupo de generadores cercanos
unos a otros. Estas oscilaciones presentan frecuencias
en el rango de 0,7 a 2,0 Hz. Los modos inter-área,
por el contrario, son causados por interacciones entre
grandes grupos de generadores oscilando entre ellos.
Estos modos presentan rangos de frecuencia entre
0,1 a 0,7 Hz. Existen dos tipos de modos oscilatorios
adicionales, causados por controladores de diferentes
tipos de componentes (llamados modos de control), o
por oscilaciones que ocurren en los sistemas rotacionales
de los sistemas turbina-generador de las unidades
generadoras (denominados modos torsionales). Este
tipo de oscilaciones presentan un rango de frecuencias
asociadas bastante amplio.
Dentro de los modos de control existen unos de
muy baja frecuencia (0,01 Hz – 0,1 Hz) que aparecen
en sistemas con alta penetración hidráulica y que
están asociados a la inadecuada sintonización de los
controladores de velocidad de las unidades de generación
hidráulicas. Este tipo de modo de control se ha detectado
en el sistema ecuatoriano.
El análisis modal [8] es la herramienta más utilizada
para analizar las oscilaciones en un SEP. Consiste en la
determinación de los modos de oscilación y el análisis de
sus correspondientes frecuencias modales complejas (es
decir, de los valores propios de cada modo: σi ± jωi). La
estabilidad oscilatoria se cumple cuando todos los modos
presentan un amortiguamiento positivo. La frecuencia y
el amortiguamiento de la oscilación pueden determinarse
a partir del valor propio de la siguiente manera:
(1)
(2)
Donde fi y ζi son la frecuencia de oscilación y la razón
de amortiguamiento del i-ésimo modo, respectivamente.
El análisis modal se basa en la modelación matemática
completa del SEP, lo que involucra altos tiempos de
cómputo para grandes sistemas. Esto constituye una
limitación para aplicarlo en tiempo real [7]. Con el
objetivo de superar esta limitante, se han estructurado
diferentes propuestas para evaluar las oscilaciones en
tiempo real. Un enfoque utiliza modelos y herramientas
computacionales inteligentes (como redes neuronales
artificiales) para estimar el riesgo oscilatorio del SEP [6],
mientras que una alternativa, con mayor robustez por sus
facilidades de aplicación propone el uso de mediciones
sincrofasoriales y su consiguiente procesamiento a través
de algoritmos de identificación modal [7].
2.2. Sistema de medición sincrofasorial
Las unidades de medición sincrofasorial (PMUs) son
dispositivos que permiten estimar sincrofasores (fasores
182
que tienen como referencia angular a una onda coseno
de frecuencia nominal, sincronizada con el tiempo UTC
-Universal Time Coordinated) de las ondas sinusoidales
de corriente y voltaje AC, en diferentes nodos de un
SEP [9]. Para calcular un sincrofasor la PMU utiliza un
algoritmo de estimación fasorial. Estos algoritmos utilizan
un número N de muestras en el tiempo para efectuar
la estimación del fasor. El algoritmo más comúnmente
utilizado es la transformada discreta de Fourier [9]. La
alta precisión, velocidad de respuesta y sincronización de
tiempo hacen de las PMUs equipos apropiados para el
monitoreo global en estado estable y dinámico, así como
para aplicaciones en protección y control, como parte
básica de un sistema de monitorio de área extendida [10].
La aplicación de estas herramientas es de especial
relevancia en la operación del sistema eléctrico, con el
fin de permitir a los operadores del sistema estar al tanto
de los potenciales problemas de estabilidad oscilatoria.
Esto puesto que la razón de amortiguamiento asociada
a los modos dominantes del sistema puede variar
significativamente dependiendo de diferentes factores,
tales como la robustez de la red, el punto de operación de
los generadores, condiciones de carga y las transferencias
de energía asociadas a la congestión de la red [6]. Por
lo tanto, la evaluación continua del amortiguamiento del
sistema debe ser realizada con el fin de alertar aquellas
condiciones de operación que podrían conllevar riesgos
de estabilidad oscilatoria.
2.3. Algoritmos de identificación modal
3. EVALUACIÓN DE OSCILACIONES CON
WAPROTECTOR
Las oscilaciones pueden ser identificadas en señales
eléctricas (medidas mediante PMUs adecuadamente
distribuidas en el SEP), después de haberse producido
una perturbación. Estas señales eléctricas se pueden
descomponer en sus modos de oscilación utilizando
técnicas de identificación modal, lo que es quizás la
opción más apropiada para estimar rápidamente los
parámetros asociados a los modos críticos del sistema,
permitiendo tener una imagen clara del amortiguamiento
real del sistema. En este sentido, se ha llevado a cabo un
importante desarrollo de diferentes tipos de estimadores
modales, que se pueden agrupar en métodos Ringdown
(lineales), los llamados medidores de modo, y los
métodos de análisis no lineal o no estacionario [1].
Los métodos Ringdown (como por ejemplo, el
análisis Prony [7]) se basan en la suposición de que la
señal bajo análisis puede ser representada por una suma
de sinusoides amortiguadas. Ese tipo de señal puede
ser registrada después de una gran perturbación (por
ejemplo, añadir o eliminar grandes cargas, disparo de
generadores, o cortocircuitos graves). Por el contrario,
los medidores de modo están diseñados principalmente
para datos “ambientales”, que resultan de pequeñas
variaciones aleatorias del sistema alrededor de estados
de equilibrio. Los medidores de modo se subdividen en
métodos paramétricos y no paramétricos, procesamiento
de bloques, y recursivos. Por otra parte, los métodos
de análisis no lineal o no estacionarias, tales como, por
ejemplo, la transformar Hilbert-Huang o transformada
wavelet continua (CWT) [1], [7], [11], o incluso otros
algoritmos desarrollados para este propósito, como
el algoritmo propietario de WAProtector, pueden ser
empleados para el seguimiento continuo de los atributos
variables en el tiempo de los parámetros modales. Esta
característica, los vuelve más robustos para su aplicación
en tiempo real.
WAProtector permite monitorear, en tiempo real, la
composición modal de las señales de potencia activa
registradas por cada una de las PMUs, a través de la
aplicación de un algoritmo propietario de estimación
modal. Esto con el objetivo de brindar al operador
señales de alerta temprana que le permitan visualizar la
ocurrencia de condiciones vulnerables para el sistema por
inestabilidad oscilatoria.
La Fig. 1 presenta los resultados de la aplicación de
estabilidad oscilatoria de WAProtector para la señal de
potencia activa registrada en la PMU instalada en la S/E
Quevedo luego del disparo de la L/T Quevedo - San
Gregorio de 230 kV ocurrido el 19 de abril de 2013 a las
18:56. Luego de este evento se registraron oscilaciones
de potencia de gran amplitud entre las 18:56:54 y las
19:15:38, período en el cual estuvo desconectada la L/T.
Figura 1: Evento Oscilatorio registrado por WAProtector
Utilizando la aplicación de identificación modal
se determinan los modos oscilatorios inmersos
en la señal de potencia activa durante el periodo
del evento, observándose la aparición de un
modo local con una frecuencia de 1,918 Hz, un
183
amortiguamiento de 0.3% y una gran amplitud,
del orden de 9,71 MW, el cual se resalta con
rojo en la Fig. 1. Por tanto, este evento causó un
fenómeno oscilatorio sostenido que fue alertado a
los operadores a través del sistema WAMS.
Adicionalmente, WAProtector permite realizar el
cálculo promedio horario de los modos oscilatorios
dominantes en amplitud, de acuerdo a su rango
de frecuencia. El presente artículo presenta un
análisis estadístico de la información obtenida a
partir de estos datos, con el objetivo de caracterizar
el comportamiento oscilatorio del SNI, el cual se
presenta en las siguientes subsecciones.
3.1. Lineamientos básicos para el análisis de
estabilidad oscilatoria
WAProtector permite recuperar información de
la frecuencia, el amortiguamiento y la amplitud de
los modos oscilatorios en cada una de las PMUs.
Esta información se procesa mediante herramientas
que recopilan y organizan los datos por cada PMU
y en cada hora.
Con el objetivo de realizar un análisis sistémico
de los modos oscilatorios en cada hora, éste
debe contemplar a todas las áreas coherentes del
sistema (puesto que en cada área coherente pueden
presentarse modos particulares). Por tanto, es
necesario analizar la información oscilatoria en
todas las PMUs que se disponen en el sistema,
en primera instancia; o en su defecto, determinar
aquellas PMUs que brindan información
redundante (es decir que están ubicadas en la
misma área coherente) y analizar únicamente las
que permiten observar modos diferentes. Esta
información permitirá evaluar adecuadamente el
comportamiento oscilatorio global del sistema.
Del total de la información, se analizan
únicamente los modos que presenten un
amortiguamiento inferior al límite que establezca
el estudio correspondiente. Sobre la base de este
criterio, se ha usado como referencia aquellos
modos que presentan valores inferiores al 5%
(límite de alerta) y al 3% (límite de alarma).
Así, se identifican y se resumen los modos cuyo
amortiguamiento es inferior 3% o 5%, la hora en
la que ocurrieron estas oscilaciones y la PMU que
permitió su observación.
De estos modos, se resaltan como referencia,
aquellos cuyas amplitudes son de más de 1 MW
(los valores de amplitud correspondientes para cada
modo de oscilación se determinan posteriormente a
través de un análisis estadístico, como se presenta
más adelante). Es posible ahora identificar,
según el rango de frecuencias, los modos poco
amortiguados que mayormente se presentan, dónde
son observables y en qué periodos de demanda se
presentan como dominantes.
Este análisis permite identificar aquellos modos
que evidencian amortiguamientos bajos e incluso
negativos, y que podría eventualmente conllevar a
problemas de estabilidad del sistema, además de
determinar la influencia en la excitación de estos
modos de ciertas centrales hidráulicas, térmicas y
estados operativos.
Una vez determinados los modos oscilatorios
más críticos, se procede a realizar un análisis
más detallado de éstos, en las horas en las que
las oscilaciones hayan sido determinadas. Por
tanto, se requiere una búsqueda más exhaustiva,
usando las aplicaciones gráficas de WAProtector,
que permita encontrar un evento que dispare una
oscilación, incluso cuando esta oscilación no sea
de magnitud considerable. Resulta apropiado,
además, determinar las centrales cuya desconexión
dispara cierto tipo de oscilaciones en el sistema.
3.2. Análisis de estabilidad oscilatoria para la
semana del 12 al 18 de agosto 2013
Con propósitos ilustrativos, se presenta el análisis
estadístico de la información correspondiente
al período del 12 al 18 de agosto de 2013. Del
total de información, se analizan únicamente los
modos que presentan un amortiguamiento horario
promedio inferior al 5%, el cual se considera
como el límite permitido de amortiguamiento para
las oscilaciones que se presentan en el sistema
nacional interconectado.
Dentro de estos modos poco amortiguados se
han determinado modos de control (0.01 – 0.1 Hz
y mayores a 4 Hz), modos inter-área (0.1 – 0.7 Hz)
y modos locales (0.7 Hz – 2.0 Hz).
3.2.1 Modos de control de muy baja frecuencia
Se ha determinado, en el período de análisis, la
existencia de modos de control poco amortiguados,
ubicados en el rango de frecuencias entre 0.011
Hz y 0.099 Hz. Cabe destacar la presencia de
diez modos que presentaron amortiguamientos
negativos (resaltados con contorno rojo en la
Fig. 2), indicando posibles riesgos de estabilidad
oscilatoria en el sistema.
184
Tabla 1: Modos de control con amortiguamiento inferior al
3%
Figura 2: Modos de control con amortiguamiento inferior al
5%
Adicionalmente, se realiza un análisis estadístico
de las amplitudes que alcanzaron los modos de
control poco amortiguados durante el período de
análisis. Los resultados arrojan que en el 48.54 % de
los casos la amplitud es mayor a 2.84 MW y que la
mayor amplitud fue de 6.84 MW.
La Fig. 3 presenta el histograma de las amplitudes
correspondientes a los modos de control en el período
de análisis.
3.2.2 Modos de control de alta frecuencia
En la Fig. 4 se observan modos oscilatorios en el
rango de frecuencia 5.79 Hz – 5.87 Hz, particularmente
en la zona de Quevedo, se estima que estos modos
están asociados con modos de control producidos por
la generación de la zona, lo cual se encuentra bajo
análisis.
Figura 3: Histograma de amplitudes de los modos de control
poco amortiguados.
La Tabla 1 presenta un resumen de los modos cuyo
amortiguamiento fue inferior al valor crítico de 3%, la
fecha y hora en la que ocurrieron estas oscilaciones,
así como la PMU que permitió su observación.
Es factible apreciar que estos modos de control se
presentan especialmente en horas de demanda media,
pero están presentes también en demanda máxima y
mínima.
Figura 4: Modos de control de alta frecuencia con
amortiguamiento inferior al 5%
La Fig. 5 presenta el histograma obtenido del
análisis estadístico de las amplitudes que alcanzaron
los modos de control de alta frecuencia poco
amortiguados durante el período de análisis. De los
185
resultados se observa que en el 87.5 % de los casos,
la amplitud es mayor a 0.25 MW y que la mayor
amplitud fue de 0.35 MW.
La Fig. 7 presenta el histograma obtenido
del análisis estadístico de las amplitudes
que alcanzaron los modos inter-área poco
amortiguados durante el período de análisis. De
los resultados se observa que en el 75.05 % de
los casos, la amplitud es mayor a 1.34 MW y
que la mayor amplitud fue de 5.56 MW.
Figura 5: Histograma de amplitudes de los modos de control
de “alta frecuencia” poco amortiguados
La Tabla 2, presenta un resumen de los modos
cuyo amortiguamiento fue inferior al valor de 3%.
Es factible apreciar que estos modo de control de alta
frecuencia, se presentan especialmente en horas de
demanda media, y son observables solamente en la
zona de Quevedo.
Tabla 2: Modos de control de “alta frecuencia” con
amortiguamiento inferior al 3 %
Figura 7: Histograma de amplitudes de los modos inter-área
poco amortiguados
La Tabla 3 presenta un resumen de los modos interárea con valores de amortiguamiento inferiores al
2.1% (menores al 3% existen 264 modos). En esta
tabla, se aprecia que el “modo inter-área” se presenta
el día 18 de agosto del 2013, en horas de demanda
baja y media, y son observables en la zona norte
(Pomasqui, Santa Rosa y Totoras), por la presencia de
oscilaciones entre el sistema ecuatoriano y el sistema
colombiano, además es observable también en
Milagro, lo que sugiere una posible partición interna
del SNI en dos áreas eléctricas.
Tabla 3: Modos inter-área con amortiguamiento inferior al
2.1%
3.2.3 Modos inter-área
Se determina la existencia de modos inter-área
poco amortiguados en el rango de frecuencia de 0.42
Hz – 0.62 Hz, como se observa en la Fig. 6.
Figura 6: Modos inter-área con amortiguamiento inferior al
5%
186
3.2.4 Modos locales
Tabla 4: Modos locales con amortiguamiento inferior al 5%
En el período de estudio, se determina la presencia
de 21 modos locales poco amortiguados, con una
frecuencia de 0.93 a 1.85 Hz, como muestra la Fig. 8.
La Fig. 9 presenta el histograma obtenido del
análisis estadístico de las amplitudes que alcanzaron
los modos locales poco amortiguados durante el
período de análisis. De los resultados se observa que
en el 95.23 % de los casos, la amplitud es mayor a
4.08 MW y que la mayor amplitud fue de 15.85 MW.
3.2.5 Análisis de resultados
En el período de análisis, se ha determinado que en
el SNI existen cuatro tipos de modos oscilatorios poco
amortiguados: de control de muy baja frecuencia, de
control de alta frecuencia, inter-área y locales. Los modos
oscilatorios son dominantes en determinados períodos
del día, de la siguiente forma:
Figura 8 Modos locales detectados
Modo de control de muy baja frecuencia: períodos de
demanda media.
Modos de control de alta frecuencia: períodos de
demanda media.
Figura 9: Histograma de amplitudes de los modos locales poco
amortiguados
La Tabla 4 presenta un resumen de los modos
locales con valores de amortiguamiento inferiores al
5% (no existieron modos con amortiguamiento menor
al 3%). En esta tabla, se aprecia que el “modo local”
se presenta el día 17 de agosto del 2013, en horas
de demanda media, pero están presentes también en
demanda baja con amplitudes altas.
Modos inter-área: períodos de demanda baja y media.
Modos Locales: períodos de demanda media.
Figura 10: Modos Locales PMU Totoras-Santa Rosa, para el
17-08-2013
187
Debido a que las PMUs no se encuentran instaladas en
las subestaciones de generación, no es posible observar
totalmente el comportamiento dinámico de las unidades
ubicadas en la zona de influencia de los modos de
oscilación. Adicionalmente, ya que el evento presentado
en la Fig. 10 se caracterizó por oscilaciones sostenidas
por alrededor de 20 min, se ha considerado usar los datos
del histórico del EMS con el objetivo de determinar
las fuentes de oscilación, puesto que las oscilaciones
se debieron registrar al menos a manera de variaciones
bruscas en las potencias de generación inyectadas.
La Fig. 11 presenta los datos obtenidos del SCADA
correspondientes a las potencias de generación, en
por unidad, de las Centrales Agoyán, San Francisco y
Paute. Es posible apreciar que las Centrales Agoyán y
Paute oscilan entre ellas. La central San Francisco, no
participó del evento oscilatorio. En este sentido, el evento
oscilatorio local registrado se debió a un modo de la
Central Agoyán, excitado luego de la apertura del ATT
de Totoras debido al incremento de la impedancia entre
Agoyán y el SNI.
La información estadística de modos oscilatorios se
utiliza, adicionalmente, para determinar los límites de
amplitudes que serán utilizados como referencia de
alerta temprana (early-warning) para la supervisión
en tiempo real. Esta información será usada como
entradas de la aplicación de monitoreo en tiempo real
como límites de alerta y alarma.
Con la información estadística descrita en el
apartado 3.2, se determinan los límites de amplitudes
en base a los valores medios (µ), la desviación
estándar (σ) y el criterio de que al menos el 50%
de los valores analizados deberían quedar incluidos
dentro del intervalo de la desviación estándar en
torno de la media (µ ± σ), mientras que el 75% de los
valores analizados deberían quedar incluidos dentro
del intervalo abarcado por el doble de la desviación
estándar (µ ± 2σ). Este criterio se conoce como la
desigualdad de Chebyshev [12].
Así, se han determinado los siguientes valores
como límites de alerta y alarma para la magnitud de
las oscilaciones registradas en el SNI, para los modos
de control de baja frecuencia, inter-área y locales,
los cuales se presentan en la Tabla 5. Para el caso de
los modos de control de alta frecuencia, su origen
se encuentra actualmente en análisis, por lo que no
se ha definido aún los correspondientes límites de
seguridad.
Figura 11: Oscilaciones de potencia de las Centrales Agoyan,
San Francisco y Paute para el 17-08-2013 de 5:55 a 6:15
Tabla 5: Límites de amplitud de oscilaciones para el SNI
El día 18 de agosto no se programa importación de
energía desde el sistema colombiano, pero se exportó
1792 MWh hacia el sistema colombiano por el enlace
de 230 kV y Paute operó con 9 máquinas disponibles.
Este día se observa que durante el período que se exporta
a Colombia, la excitación del modo inter-área presenta
oscilaciones sostenidas con amortiguamientos menores
al 3% y amplitudes de hasta 5.56 MW. Adicionalmente,
el estado operativo del SNI fue 76 % de generación
hidráulica, 24 % generación térmica. La Fig. 12 presenta
el evento oscilatorio inter-área descrito
Fi
g
Figura 12: Modos Inter-área PMU: Pomasqui-Jamondino 2,
para el 18-08-2013
3.3. Parametrización de los límites para las
amplitudes de los modos oscilatorios
4. CONCLUSIONES Y RECOMENDACIONES
Con la implementación del sistema WAMS y los
análisis post-operativos realizados, ha sido posible
identificar el comportamiento dinámico del sistema,
determinar zonas coherentes de influencia oscilatoria,
máquinas que participan en las oscilaciones, estados
operativos que influyen los modos de oscilación y ciertos
comportamientos dinámicos que antes no eran visibles
con el tradicional sistema SCADA/EMS. Esto marca
el inicio del proceso de caracterización del sistema
de potencia, lo que permitirá definir los límites reales
de alertas y alarmas para los diferentes módulos de
detección. Estos análisis conducirán a la determinación
de recomendaciones operativas sobre cómo actuar al
presentarse ciertos eventos en el SNI, con el objetivo
188
de mejorar considerablemente los criterios y forma de
operar y mejorar así la seguridad en su operación.
Con la disponibilidad actual de PMUs impide
observar totalmente el comportamiento de las unidades
de generación ubicadas en ciertas zonas de influencia de
los modos de oscilación, por lo que se recomienda incluir
nuevas PMUs, definiendo su ubicación, sobre la base de
los criterios técnicos y los análisis realizados.
Los análisis han permitido observar en la zona de
Quevedo, la presencia de modos poco amortiguados de
control de alta frecuencia. Para determinar su origen,
se está realizando un análisis multi-variante, en base
al despacho real diario de las máquinas, de tal manera
de determinar patrones que permitan identificar la
participación de estas en la excitación de los diferentes
modos oscilatorios, con el fin de determinar su origen y
sugerir acciones de control adecuadas, como pueden ser
la revisión de los reguladores de voltaje de las unidades
de las centrales y la activación de PSSs en centrales de
generación de la zona. Los resultados se presentarán en
trabajos futuros.
Se ha observado que ciertos estados operativos y
topológicos, excitan determinados modos oscilatorios,
como por ejemplo la exportación a Colombia, los
porcentajes de generación hidroeléctrica y térmica,
la operación de ciertas máquinas, la apertura de
ciertos elementos del SNI, entre otros. Análisis más
especializados (como el multi-variante) permitirán
identificar estados operativos potencialmente peligrosos
y sugerir recomendaciones para la planificación y
operación del SNI. Futura investigación es necesaria para
llegar a término este objetivo.
REFERENCIAS BIBLIOGRÁFICAS
[1] IEEE PES Power System Dynamic Performance
Committee
(2012).
“Identification
of
Electromechanical Modes in Power Systems”.
[2] Hoballah, A. & Erlich, I. (2012). “Online marketbased rescheduling strategy to enhance power
system stability”, IET Generation, Transmission
& Distribution, pp. 30–38.
[3] Li, Y. & Venkatasubramanian, V. (2004).
“Coordination of transmission path transfers”,
IEEE Transactions on Power Systems, pp. 16071615.
189
[4] Rueda J., Guamán W., Cepeda J., Erlich I.
& Vargas A. (2013). “Hybrid Approach for
Power System Operational Planning with Smart
Grid and Small Signal Stability Enhancement
Considerations”, IEEE Transactions on Smart
Grid, March 2013.
[5] Condren, J. & Gedra, T. W. (2006). “Expectedsecurity-cost optimal power flow with smallsignal stability constraints”, pp. 1736-1743.
[6] Teeuwsen, S. P. (2005). “Oscillatory Stability
Assessment of Power Systems using
Computational Intelligence”. Tesis de Doctorado,
Universität Duisburg-Essen, Germany.
[7] Juárez C. & Colomé D. (2009). “Tendencias en
la Supervisión en Tiempo Real de la Estabilidad
de Pequeña Señal de Sistemas de Potencia”, XIII
ERIAC, mayo de 2009, Puerto Iguazú, Argentina.
[8] Kundur P. (1994). “Power System Stability and
Control”, McGraw-Hill, Inc.
[9] Cimadevilla R. (2009). “Fundamentos de la
Medición de Sincrofasores”. XIII ERIAC, Puerto
Iguazú, Argentina.
[10] Martinez C. Parashar M., Dyer J., & Coroas J.
(2005). “Phasor Data Requirements for Real Time
Wide-Area Monitoring, Control and Protection
Applications”, White Paper – Final Draft, for:
EIPP – Real Time Task Team.
[11] Rueda J., Juárez C. & Erlich I. (2012). “Waveletbased Analysis of Power System Low-Frequency
Electromechanical
Oscillations,”
IEEE
Transactions on Power Systems, pp. 118 – 133.
[12] Han J. & Kamber M. (2006). “Data Mining:
Concepts and Techniques”, second edition,
Elsevier, Morgan Kaufmann Publishers.
Jaime Cristóbal Cepeda.- Recibió
el título de Ingeniero Eléctrico en
la Escuela Politécnica Nacional en
2005 y el de Doctor en Ingeniería
en la Universidad Nacional de San
Juan en 2013. Entre 2005 y 2009
trabajó en Schlumberger y en el
CONELEC. Colaboró como
investigador en el Instituto de
Energía Eléctrica, Universidad
Nacional de San Juan, Argentina y en el Instituto de
Sistemas Eléctricos de Potencia, Universidad DuisburgEssen, Alemania entre 2009 y 2013. Actualmente, se
desempeña como Jefe de Investigación y Desarrollo del
CENACE. Sus áreas de interés incluyen la evaluación de
vulnerabilidad en tiempo real y el desarrollo de Smart
Grids.
Aharon Bhawan De La Torre.Recibió el título de Ingeniero
Eléctrico en la Universidad
Politécnica Salesiana en 2013, entre
2012 y 2013 trabajó en el Área de
Sistemas de Tiempo Real en la
Dirección
de
Sistemas
de
Información de la Corporación
CENACE, en la implementación del sistema WAMS del
S.N.I. Actualmente se desempeña como administrador
funcional del sistema WAMS y forma parte del Área de
Análisis de la Operación en la Dirección de Operaciones
de la Corporación CENACE, encargado del desarrollo y
actualización de los procedimientos para la inclusión de la
información del sistema WAMS en los procesos del área..
190
Análisis del sistema de alarmas del EMS del CENACE
W.P. Gamboa
C.S. Erazo
Centro Nacional de Control de Energía, CENACE
Resumen— El propósito del siguiente artículo
es investigar sobre las normativas relacionadas
con el manejo y gestión del sistema de alarmas,
para con esa base realizar una comparación con
el sistema de alarmas del EMS del CENACE.
Las normativas EEMUA 191 y la ANSI/ISA-18.2
recomiendan metodologías para la gestión de las
alarmas y proporcionan índices referenciales de
desempeño. Para calcular esos índices se realizó
el análisis estadístico de las alarmas desplegadas
al operador del CENACE por un lapso de 30 días
y al compararlos con los índices recomendados
se determinó que el EMS del CENACE está
fuera de los límites que recomiendan las normas
anteriormente citadas. Por lo que se propone
ciertas sugerencias para la reducción del número
de alarmas desplegadas y así encaminarse a las
buenas prácticas de ingeniería recomendadas en
la normativa de referencia.
Palabras clave— Alarmas, EMS, inundación de
alarmas.
Abstract— The purpose of this article is to
investigate regulations related to alarm system use
and management, in order to perform a comparison
with the CENACE’s EMS alarm system.
Regulations EEMUA 191 and ANSI/ISA-18.2
recommend methodologies for alarm management
and provide referential performance indexes.
In order to calculate such indexes, a statistical
analysis of CENACE alarms was performed over
a period of 30 days and upon comparison with
recommended indexes, it was determined that
the CENACE’s EMS alarms were not within the
aforementioned recommended limits. Therefore,
certain suggestions were proposed for reducing
the number of deployed alarms and thus meet the
good engineering practices recommended by the
referenced regulations.
Index Terms— Alarms, EMS, Alarm Flood.
1. INTRODUCCIÓN
Uno de los factores en común entre las industrias
petroleras, químicas, farmacéuticas, mineras, generadoras
de energía eléctrica, de gas, refinerías, entre otras, es
que tienen un centro de control donde el operador está
monitoreando los procesos y presto para responder a las
alarmas que puedan presentarse y retornar a condiciones
normales el o los procesos que tienen alguna perturbación.
Pero estas alarmas, si no son manejadas
adecuadamente, en vez de ayudar a la supervisión de la
planta dan lugar a que el operador ante una gran cantidad
de alarmas pase por alto la alarma que está originando
el problema y con esto las acciones remediales tomen
un tiempo mayor al establecido, provocando daños y
pérdidas cuantiosas.
La explosión en la refinería Texaco en Milford
Haven en 1994 o el accidente ocurrido en la planta de
gas Longford de Esso en 1998 son algunos ejemplos de
incidentes donde el sistema de alarmas fue determinante
que en el desenvolvimiento de los hechos que terminaron
en destrucción de las instalaciones de la planta, afectación
al medio ambiente, pérdidas económicas y pago de
multas. Por ejemplo los operadores de Milford Haven
descuidaron el sistema de alarmas debido a que este
representaba más un obstáculo que una ayuda [6].
Los centros de control de energía eléctrica no están
exentos del monitoreo de variables y el manejo de alarmas
y estos son de suma importancia ya que la identificación
y una reacción oportuna a cierta alarma puede evitar el
colapso de varias subestaciones y disminuir el tiempo de
corte del suministro eléctrico a la ciudadanía y reducir
todos los problemas y costos que ocasionan los apagones.
2. NORMATIVA RELACIONADA
La gestión de alarmas es un tema de importancia para
las industrias indicadas anteriormente, por lo que se han
realizado varias investigaciones utilizando técnicas como
de árboles de decisión, ontologías, lógica difusa, sistemas
expertos entre otros con la finalidad de conseguir un
manejo óptimo de alarmas.
Adicionalmente los organismos pertinentes estaban
en busca de una estandarización de temas referentes
al manejo de alarmas, por lo que en 1999 en Europa
la EEMUA (Engineering Equipment and Material
Users Association) emite su norma EEMUA 191
Alarm Systems, A Guide to Desing, Management and
Procurement con una revisión en el año 2007. Mientras
191
que para el año 2009 ISA (International Society of
Automation) en Estados Unidos se da a conocer la norma
ANSI/ISA-18.2-2009 Management of Alarm Systems
for the Process Industries.
• En número de alarmas durante los primeros 10
minutos de una perturbación debe ser inferior a
10.
• La distribución recomendada en la asignación de
prioridades en las alarmas debe ser: 5% para alta
prioridad, 15% para prioridad media y 80% para
baja prioridad.
• El promedio de alarmas permanentes debe ser
menor a 10.
2.1. Descripción breve de la norma EEMUA 191
EEMUA 191 es un conjunto de directrices para
la gestión de alarmas, pero sus recomendaciones no
son obligatorias. Sin embargo, el documento describe
buenas prácticas y es utilizado por varios organismos
reguladores. [1]
En [2] se indican ciertos fundamentos básicos que
sigue esta normativa, en ellos se destaca que las alarmas
tienen atributos clave como los siguientes
•
•
•
•
Deben alertar, informar y guiar.
Deben ser útiles y relevantes
Cada alarma debe tener una respuesta definida
Deben tener un tiempo adecuado para permitir
que el operador realice la respuesta definida.
• El sistema de alarmas debe ser diseñado tomando
en cuenta las limitaciones humanas.
También recomienda las características que debe
cumplir una buena alarma, y estas son
• Relevante, que no se muestren alarmas falsas o de
bajo nivel.
• Única, que no existan alarmas duplicadas.
• Oportunas, que no se presenten alarmas muy
anticipadamente al tiempo necesario para
responder o que se presenten alarmas muy
tarde cuando ya no se puede hacer nada para
controlarla.
• Priorizadas, que indique la importancia para que
el operador sepa a cuál reaccionar primero.
• Entendible, que se muestre un mensaje claro y
fácil de entender.
• Capacidad de diagnóstico, que identifique el
problema que está sucediendo.
• Asesore, que indique la acción que el operador
debe tomar.
• Enfoque, que llame la atención sobre los temas
más importantes.
2.1.1 Indicadores de la norma
La EEMUA 191 propone los siguientes indicadores
para la evaluación del sistema de alarmas.
• El promedio de alarmas a largo plazo en la
operación continua debe ser menor a una alarma
cada 10 minutos.
Si se contabiliza una mayor cantidad de alarmas a
las mencionadas en los anteriores indicadores se dice
que se tiene una inundación de alarmas. Los periodos
de inundación de alarmas arrancan cuando se tiene más
de 10 alamas en 10 minutos y termina en el periodo
cuando se tenga 5 o menos alarmas en 10 minutos. Las
inundaciones pueden durar horas y abarcar miles de
alarmas [11].
EEMUA ofrece una metodología asequible para la
gestión de alarmas, donde se debe seguir los siguientes
pasos [1].
2.1.2 Patrón de referencia
Primero se debe recopilar la información referente a
las alarmas desplegadas en el centro de control para su
posterior análisis estadístico.
Se debe medir el número promedio de alarmas en una
hora y el número máximo de alarmas en una hora para
graficarlos y determinar el patrón de gestión de alarmas.
También se deben realizar las mediciones para evaluar
los índices detallados en 2.2.1.
Una vez reunida toda la información para la evaluación
e identificación del actual sistema de alarmas se pueden
tomar las medidas y estrategias para llevar al sistema de
alarmas a un nivel adecuado.
2.1.3 Desarrollo de un concepto de alarmas
Debe existir o crear un documento en el cual se defina
la metodología y las reglas de constitución de las alarmas
y el esquema de priorización.
Este documento también debe describir claramente las
funciones y la asignación de las responsabilidades de los
operadores ante la ocurrencia de una alarma.
2.1.4 Supresión de alarmas molestas
Se llama alarmas molestas a las alarmas que no
cumplen con los atributos o con las características de una
192
alarma que se detallaron anteriormente, en resumen son
las alarmas que no presentan ningún valor al operador.
Al identificar y eliminar estas alarmas moletas se
puede reducir considerablemente la cantidad de alarmas,
ya que las alarmas molestas por lo general son las que se
despliegan con mayor frecuencia. No todas las alarmas
molestas deben ser eliminadas, algunas pueden pasar a
formar parte de los eventos.
2.1.5 Racionalización de alarmas
Se debe realizar una revisión a las alarmas para
verificar que cumplan con lo estipulado en el concepto de
alarmas que se realizó en 2.2.3.
Con esto se puede modificar los ajustes de cada alarma
como límites, bandas muertas, cambio de prioridad, entre
otros.
En EEMUA 191 se propone una metodología para
la valoración general de alarmas como se muestra en la
Fig. 1, en donde se evalúan las alarmas y se determinan si
necesitan modificaciones en sus ajustes, cambio de nivel
de prioridad o la eliminación de la base de alarmas.
2.1.6 Mejora continua
Debido a que las condiciones en las plantas son
variables y sufren cambios que afectan a los procesos
se debe evaluar constantemente el sistema de alarmas
y vincular esta evaluación a los procedimientos que se
manejen habitualmente en los centros de control.
2.2. Descripción breve de la norma ANSI/ISA18.2
En 2003 ISA inició la investigación para el desarrollo
de una normativa para los sistemas de alarmas con la
participación de muchas empresas y finalmente publicó
la normativa 18.2 en el 2009.
Figura 1: Valoración general de alarmas EEMUA 191 [2]
generally accepted good engineering practices)
además que está basado en los aportes de otras normas
y directrices como EEMUA 191, NAMUR NA 102 y
ASM.
En esta normativa se define a una alarma como: es
un medio audible y/o visible para indicar al operador de
un mal funcionamiento de un equipo, la desviación de
un proceso o una condición anormal que requiere una
respuesta [4].
La gestión del sistema de alarmas es un proceso que
requiere una continua atención y para esto la ISA-18.2
propone la metodología de los ciclos de vida de la
alarma, que están divididos en 10 pasos como se muestra
en la Fig. 2.
2.2.1 Filosofía de alarmas
Es el documento que especifica los objetivos y los
requerimientos y reglas para la desarrollar la gestión del
sistema de alarmas. En el mismo deben incluirse:
ISA-18.2 proporciona un marco para un satisfactorio
diseño, implementación, operación y gestión de los
sistemas de alarmas para plantas de proceso [3]. Y es
considerada como RAGAGEP (recognized and
193
• Definición de alarma, clasificación de alarmas,
determinación de prioridades.
• Roles y responsabilidades de los involucrados
con el manejo de alarmas
• Requisitos de la racionalización de alarmas.
• Diseño de las alarmas.
• Reglas para el almacenamiento y eliminación de
alarmas.
• Requerimientos para el sistema de monitoreo de
alarmas
• Definiciones de la gestión de cambio.
• Entrenamiento.
En la creación de la filosofía de alarmas debe estar
los involucrados con el manejo de alarmas y formar un
comité y de ser posible con la participación de un experto
en el tema.
• Determinar el adecuado punto de calibración,
condición lógica, bandas muertas y límites de la
alarma.
• Determinar la correcta prioridad de la alarma.
• Documentar alguna especificación especial para
el diseño de una alarma.
• Determinar el número mínimo de puntos de
alarma para mantener el proceso seguro y bajo
control.
• Documentar cualquier capacidad avanzada de
alarmas que se desea para cierta alarma.
• Documentar información relevante como: causa,
acción recomendada para el operador, el tiempo
razonable de acción del operador, consecuencias
de la falta de respuesta oportuna del operador
para cada alarma.
Se realizarán varios borradores hasta que surja el
documento final, que periódicamente debe ser revisado
para posibles modificaciones de mejora.
2.2.2 Identificación
Esta etapa trata de los diferentes métodos existentes
que ayuden a identificar la necesidad de una alarma
para cierto proceso. Las fuentes para la detección de
estas potenciales alarmas pueden ser: las revisiones
de procedimientos de operación, recomendaciones de
investigaciones de incidentes, auditorías o de estudios
especiales como Análisis de Procesos Peligrosos (PHA),
Análisis de Protección por Capas (LOPA) y Análisis de
modo falla y sus efectos (FMAE), entre otros.
Luego de todas las evaluaciones se debe volver
a verificar que las prioridades de las alarmas están
alineadas con las consecuencias de la falta de reacción
del operador, los límites de las alarmas permite que haya
tiempo adecuado para la respuesta del operador y si se
ha identificado la acción razonable y observable del
operador.
2.2.4 Diseño detallado
Este ciclo está dedicado al entendimiento de las
capacidades y limitaciones del sistema de control de
los procesos. Se puede dividir en el diseño básico de
alarmas, el diseño de la interfaz Hombre – Máquina HMI
y el diseño avanzado de alarmas.
En el diseño básico se puede configurar las bandas
muertas para una alarma, los tiempos de espera antes
de mostrar una alarma, la optimización de alarmas
desplegadas al configurarlas como grupo y de más
opciones de fácil programación que tenga implementado
el sistema de control.
Figura 1: Valoración general de alarmas EEMUA 191 [2]
2.2.3 Racionalización
La racionalización es un conjunto de evaluaciones
aplicadas a las alarmas existentes y las potenciales
alarmas para determinar si cumple con su función. Las
principales actividades dentro de la racionalización de
alarmas son:.
• Asegurar que la alarma cumpla con los criterios
planteados en la filosofía de alarmas.
• Justificar la necesidad de esta alarma.
• Señalar las alarmas que se van a eliminar, pues no
deberían existir ya que no necesitan respuesta del
operador o están duplicadas.
• Determinar apropiadamente el tipo y la clase de
alarma.
El diseño del HIM debe ser de tal forma que ayude
al operador a detectar, diagnosticar y responder ante
una alarma en un tiempo prudencial. Por lo que el uso
de colores, fuentes, dibujos debe ser el adecuado para
que no afecte el desempeño del operador. Igualmente se
debe diseñar el esquema de alarmas audibles ya que para
diferente alarma puede haber un sonido característico y
en otros casos no presentarse ninguno. También se debe
tomar en cuenta la manera como las alarmas se van a
mostrar en relación a su prioridad y clase, la forma de
reconocimiento de las alarmas así como su método de
archivo y presentación de las alarmas de equipos fuera
de servicio.
194
Para el diseño avanzado de alarmas se utiliza técnicas
que ayuden a mejorar el rendimiento del sistema de
alarmas y así garantizar que al operador se le van a
presentar alarmas solo cuando estas sean relevantes. Estas
técnicas mediante programación, modelamiento y uso de
capas lógicas modifican dinámicamente los atributos de
las alarmas para ocultarlas y mostrar las relevantes. Dentro
de estos métodos avanzados de alarmas se puede indicar
entre otros los siguientes: alarmas basadas en modelos,
matriz de estado y en lógica, supresión de alarmas basado
en agrupamiento, por limitación de tiempo, por conteo y
por modificación lógica de atributos.
2.2.5 Implementación
En esta sección se trata acerca de las actividades a
realizarse por la implementación de un nuevo sistema de
alarmas o la implementación de los cambios determinados
en las etapas anteriores.
Las actividades a desarrollarse son dos, las pruebas
y verificación de los cambios realizados en el sistema
de alarmas. Y la segunda es el entrenamiento a los
operadores para que se familiaricen con los cambios o
nuevas técnicas implantadas y con esto se promueva la
confianza de los operadores en el sistema de alarmas.
Estas dos actividades deben ser adecuadamente
documentadas.
2.2.7 Mantenimiento
Es el estado cuando una alarma sale fuera de servicio
para repararla, reemplazarla o por pruebas. La norma
indica los procedimientos y la documentación necesaria
para sacar de servicio una alarma y las pruebas previas
para su vuelta en servicio.
Adicionalmente como medida de seguridad se requiere
que el sistema sea capaz de mostrar una lista con todas las
alarmas en mantenimiento, para que el operador antes
de poner en funcionamiento un equipo verifique que las
alarmas del mismo se encuentran en servicio.
2.2.8 Seguimiento y evaluación
En esta parte se describe como analizar el desempeño
del sistema de alarmas en comparación con los
indicadores recomendados por la norma, estos se
muestran en la Tabla 1.
En resumen en una base de por lo menos 30 días se
contabiliza el número de alarmas que se presentan en 10
minutos, una hora y en el día. Y se estipula un número
aceptable y máximo de alarmas para que un operador
pueda responder de manera adecuada y si esta cantidad
supera los valores referenciales se considera que existe
una inundación de alarmas.
2.2.6 Operación
Tabla 1: Mediciones de desempeño de alarmas ISA-18.2 [3z
La norma indica las herramientas recomendadas para
el manejo de las alarmas durante la operación. Una de
esta es el archivo de alarmas que permite al operador
ocultar momentáneamente alarmas de menor categoría
para quedarse con las importantes y luego de un tiempo
establecido estas alarmas archivadas vuelven a aparecer
para la gestión del operador.
Para esta etapa debe estar disponible del procedimiento
de respuesta a alarmas, documento que fue realizado en
la racionalización y contiene información de la causa,
acción recomendada, consecuencia de la inacción y el
tiempo de respuesta del operador ante una alarma. Esta
información de preferencia debería poder ser desplegada
en línea.
Finalmente dentro de la operación se recomienda un
plan de entrenamiento para refrescar conocimientos y
procedimientos en el tema de manejo de alarmas.
También se recomienda que solo existan tres o cuatro
niveles de prioridades, para el caso de tres sería: 80%
prioridad baja, 15% prioridad media y 5% prioridad alta.
Mientras si se tiene cuatro niveles estas se distribuiría en:
80% baja, 15% media, 5% alta y menor al 1% súper alta
prioridad.
195
Con el análisis estadístico se puede determinar
cuáles alarmas están saliendo en mayor cantidad para
investigarlas y catalogarlas como alarmas falsas, fugases
u obsoletas que pueden ser eliminadas con facilidad
siguiendo la metodología de esta norma.
Por ejemplo para la potencia aparente en los
transformadores se indica que la alarma está configurada
al 95% del valor de operación continua declarado por el
agente, que tendrá una histéresis de 2 MVA, una prioridad
1, se mostrará en color rojo y con sonido.
2.2.9 Gestión de cambio
Para el caso de voltajes de barra de 230 kV se cuenta
con dos niveles de alarma, para alto voltaje High 1 en
el valor del voltaje nominal (Vn) y el High 2 en 1,03Vn.
Mientras que para bajo voltaje el nivel Low 1 está al
0,96Vn y el Low 2 al 0,95Vn. Estas alarmas están en
prioridad 2, con sonido y los niveles High 1 y Low 1 se
mostrarán en color amarillo mientas que los niveles High
2 y Low 2 están en color rojo.
Determina el uso de herramientas y procedimientos
para garantizar que las modificaciones al sistema de
alarmas queden revisadas y aprobadas antes de su
implementación.
El HMI debe permitir visualizar un registro histórico
de los cambios realizados a los parámetros de las alarmas
donde se informe la fecha, el número de cambios, los
valores de configuración y el usuario que realizó esta
actualización. Con esto se asegura que solo el personal
autorizado realice los cambios y se pueda detectar si otro
usuario realizó un cambio.
2.2.10 Auditoría
Es la última parte del ciclo de vida de las alarmas, aquí
se realizan periódicamente una revisión global del sistema
de alarmas, de todos los documentos, procedimientos
formulados a lo largo del ciclo de vida y la manera en que
estos están siendo aplicados se ciñen a las condiciones
cambiantes de la planta.
Las novedades encontradas en la auditoría serán
reflejadas en la modificación de la filosofía de alarmas y
así empieza nuevamente el proceso de mejora continua
en el sistema de alarmas.
3. DIAGNOSTICO
DEL
SISTEMA
DE
ALARMAS DEL CENTRO DE CONTROL
DEL CENACE
El EMS del CENACE cuenta con un sistema de
alarmas que tiene la capacidad de 8 niveles de prioridades
de los cuales se utiliza 5 niveles, se tiene 9 clases de
alarmas y cuatro tipos de categorías de alarmas.
En lo referente a la presentación en el HMI las alarmas
se muestran en colores de acuerdo a su clase, categoría y
prioridad. Se cuenta con un historiador de alarmas donde
se puede buscar y filtrar de acuerdo al requerimiento
necesario.
En [10] se tiene una referencia de como están
configuradas las alarmas del EMS del CENACE. En este
se definen las prioridades, número de límites, histéresis,
color y sonido de la alarma a mostrarse, valor de la
alarma.
Las alarmas referidas al AGC (Control Automático
de Generación) pueden estar en prioridad 1 y 2, las dos
se desplegarán en color azul y solo la prioridad 1 tiene
sonido.
Para la apertura de disyuntores se clasifica de dos
formas: automática y manual. Si la apertura es automática,
es decir, debido a la actuación de las protecciones la
prioridad es 1, color rojo y tiene sonido. Mientras que si
la apertura es dada vía comando o manual desde el patio
su prioridad es 2, en color celeste y sin sonido.
Y así el documento detalla las alarmas para el resto
de elementos del sistema eléctrico de potencia. Debido
a que el documento es antiguo (2007) y no se ha dado el
seguimiento del caso, lo escrito en el mismo dista mucho
del actual sistema de alarmas. Por ejemplo en [10] se
indica solo un nivel de alarmas para la potencia aparente
en los puntos de entrega mientras que en la actualidad se
tiene 3 niveles. Otro es que lo estipulado para la apertura
de disyuntores no se está cumpliendo, las aperturas
manuales o automáticas tienen igual prioridad, color y
sonido.
También no se han ejecutado los cambios solicitados,
por ejemplo se pide que no se desplieguen las alarmas
de prioridad 8 a los operadores, actualmente se tiene
habilitada esta prioridad que llena la pantalla de con
alarmas inútiles al operador.
3.1. Acción de mejora
Una vez detallado de forma rápida el sistema de
alarmas se propone seguir las recomendaciones brindadas
por las normas EEMUA 191 y ANSI/ISA-18.2 y que son
aplicables a un centro de control del sistema eléctrico de
potencia. Las actividades propuestas serían.
196
• Medición del patrón de referencia.
• Creación del concepto o filosofía de alarmas.
• Identificación y racionalización.
•
•
•
•
•
Diseño e implementación.
Operación y mantenimiento.
Seguimiento y evaluación.
Gestión de cambio.
Auditoría.
El alcance del presente artículo es exponer las
mediciones realizadas a las alarmas que se muestran
en el centro de control y proponer ciertas pautas para la
filosofía de alarmas en busca de reducir la cantidad de
alarmas desplegadas.
3.2. Medición del patrón de referencia
Se ha recopilado la información necesaria para
encontrar el patrón de gestión de alarmas y luego calcular
los índices recomendados. Los resultados del análisis
realizado para los 30 días del mes de agosto de 2013 se
muestran a continuación.
Figura 4: Número de alarmas por día
La norma ISA-18.2 recomienda que se tenga de
manera aceptable 6 alarmas y como máximo 12 en un
hora. Pero se halló que las alarmas por hora son mucho
mayores que ese valor, el valor mínimo es de 224 muy
lejano de 12. En la Fig. 5 se muestra lo descrito.
Número promedio de alarmas por hora
100000
10000
6000
IMPOSIBLE
Sobre
cargado
1000
600
100
Reactivo
60
10
6
1
Robusto
Estable
Figura 5: Número de alarmas por hora
Predictivo
10
600
6000
100
1000
10000
Máximo número de alarmas por hora
Punto de operación del sistema de alarmas
6
100000
Figura 3: Patrón de gestión de alarma para el CENACE
Finalmente para el índice de número de alarmas cada
10 minutos los resultados no varían como se ve en la Fig.
6 y se tiene valores considerablemente mayores a los
recomendados por la norma que son 1 y máximo 2. El
valor mínimo encontrado es de 19.
En la Fig. 3 se muestra el patrón de gestión de alarmas
propuesto por la EEMUA 191, donde se puede observar
que el sistema de alarmas del CENACE está más cerca
del lado imposible de responder a las alarmas que del lado
robusto o estable que es manejable. Con esta información
se debe tomar medidas para la reducción de alarmas y
tratar que el punto de operación del sistema de alarmas
esté entre robusto y predictivo que es la recomendación
de la EEMUA 191.
Otro indicador que se calculó es el número de alarmas
mostradas por día. La ISA-18.2 recomienda que las
alarmas sean 150 como aceptables y hasta 300 como
máximo manejable. En la Fig. 4 se muestra la contabilidad
de las alarmas en el día y se observa que nunca se tiene
los valores recomendados, el valor mínimo contabilizado
es de 10 620 alarmas.
Figura 6: Número de alarmas por cada 10 minutos
Otro valor recomendado por ambas normas es el
porcentaje asignado a cada prioridad. En el EMS del
CENACE se utilizan 3 prioridades (1, 2 y 3) y una
adicional que es la 8 para información del EMS que
no se utiliza en la operación. En la Fig. 7 se indica los
resultados.
197
• Se debe agrupar las alarmas para que en el caso
de la actuación de un esquema de protección
sistémico (EPS) que abra varias posiciones la
alarma que aparezca sea la actuación del EPS
y no todas las posiciones abiertas. Y si alguna
posición no actúa como indica el EPS también
debería salir como alarma.
• Igualmente se debería zonificar las alarmas de
voltaje, ya que ante una falla considerable la zona
aledaña es la que se ve afectada en el voltaje, así
si todas las subestaciones censan voltaje fuera de
rango se tendría una alarma zonal que indica la
falla y no varias alarmas de cada subestación a
causa de la misma falla.
• Las aperturas y cierres de disyuntores que se dan
debido a la coordinación de maniobras, es decir,
son vía comando desde el centro de control o de
forma manual desde el patio de una subestación
no deben ser consideradas alarmas sino eventos
de la operación normal del sistema. La misma
consideración se la debería de dar para maniobras
en el AGC.
• Los límites de voltaje en las barras debe estar en
concordancia con el estudio “Informe de bandas
de voltaje SNT” que anualmente realiza DPL.
• Documentar el plan de acción por parte de los
operadores y supervisor ante la ocurrencia de una
alarma.
• Definir una filosofía de alarmas para que esta sea
aplicada en la actualización del EMS.
Figura 7: Proporción de prioridades
Finalmente se realizó un estudio para ver que
subestación o instalación es la que genera mayor cantidad
de alarmas. En la Fig. 8 se ve que con 4 subestaciones se
generaron el 56% de las alarmas.
Figura 8: S/E con alarmas más frecuentes
3.3. Sugerencias para la filosofía de alarmas
En base al análisis anterior se puede dar las siguientes
sugerencias para que formen parte de la filosofía de
alarmas.
• Conformar un grupo permanente que esté
encargado del seguimiento del sistema de
alarmas, este grupo debería estar conformado
principalmente por personal de la sala de control
y del área de tiempo real.
• Revisar las subestaciones que generan más
alarmas para identificar que alarma de estas es la
que genera la avalancha de alarmas.
• Se debe cambiar los límites máximos a las barras
donde se conecta generación, ya que en periodos
de demanda media y máxima se maximiza la
potencia reactiva de estas centrales y se tiene gran
cantidad de alarmas de alto nivel de voltaje.
• Cuando una posición salga a mantenimiento
debería ser posible que sus alarmas salgan
también fuera de línea, ya que en estas posiciones
se hace pruebas de apertura y cierre lo que genera
alarmas falsas.
• En algunas subestaciones se tiene mediciones
redundantes por lo que para una misma maniobra
se generan tres o cuatro alarmas, se debería
suprimir estas alarmas duplicadas.
4. CONCLUSIONES Y RECOMENDACIONES
Debido a la importancia que tienen las alarmas en las
plantas de proceso se han creado normas que fomentan
buenas prácticas de ingeniería con el fin de mantener
los procesos dentro de sus límites establecidos ante el
reconocimiento, diagnóstico y respuesta a las alarmas por
parte del operador y así evitar accidentes que afecten a
las personas, instalaciones y el medio ambiente.
Si bien las normativas EEMUA 191 y ANSI/ISA18.2 se refieren a plantas industriales de procesos donde
se produce bienes, los centros de control de sistemas de
potencia no estarían excluidos de esas normativas, ya que
la respuesta adecuada y oportuna ante las contingencias
hace que el suministro eléctrico se mantenga o se
reponga lo antes posible para el desarrollo de la mayoría
de actividades productivas y cotidianas de las personas.
No se ha dado el seguimiento adecuado al sistema de
alarmas del EMS del CENACE, ya que no se cuanta con
un documento actualizado del sistema de alarmas y los
cambios solicitados no han sido implantados.
198
Del análisis realizado se encontró que el sistema de
alarmas del EMS del CENACE no está dentro de los
índices recomendados por las normas EEMUA 191 y
ANSI/ISA-18.2.
[9] Wright J. (2011). “Alarm Management Standards
and Best Practices”, Rockwell Automation.
Chicago, USA
[10] Zabre E., Gómez O. (2012). “Panorama de la
racionalización de alarmas en el sector industrial
y eléctrico”, Boletín IIE jul – sep 2012. México.
Se recomienda generar un grupo permanente de
trabajo que tenga bajo su responsabilidad la gestión del
sistema de alarmas del EMS del CENACE.
[11] Aizpurúa O., Galán R., Jiménez A., (2009)
“Una nueva metodología para el análisis de
alarmas masivas en sistema de potencia basada
en sistemas cognitivos”, energética Vol. XXX
No.3/2009.
Se recomienda modificar los procedimientos para
que en estos se considere los principios dotados por las
normas EEMUA 191 o ANSI/ISA-18.2 para la gestión
del sistema de alarmas.
REFERENCIAS BIBLIOGRÁFICAS
[12] DOP – DSI (2007), “Acta de reunión de trabajo 1
del Proyecto definición de alarmas”, 16-04-2007.
[1] Hollender M., Beuthel C. (2007). “Sistema
Inteligente de Alarmas”, Revista ABB 1/2007,
pp. 20-23.
[13] deBarr (2013), “Análisis de alarmas – CENACE”
[2] “Introducing 2nd edition EEMUA 191” (2007).
Disponible (online) en:
Christian Erazo Pazmiño.- Nació
en Quito, Ecuador en 1982.
Recibió su título de Ingeniero
Eléctrico de la Politécnica Nacional
en 2007; desde el 2008 se
desempeña como Operador de
Generación y Transmisión en la
sala de control del CENACE.
[3] http://www.eemua.org/pdf/EEMUA191Presentations.pdf
[4] “Setting a new standard in alarm management:
How to follow the ISA 18.2 alarm management
standard to create a safer and more productive
plant.” (2010). Disponible (online) en: http://
www.usa.siemens.com/process
[5] Hollifield B.(2010). “ Understanding and Applying
the ANSI/ISA 18.2 Alarm Management
Standard” Disponible (online) en:
Wilmer Gamboa Naranjo.- Realizó
sus estudios en la Escuela Politécnica
Nacional en donde obtuvo su el
título de Ing. Eléctrico en el año
2001, Diplomado en Planificación
Estratégica en el año 2008 y Técnico
de Energía Solar: Térmica y
Fotovoltaica en el año 2009.
[6] http://www.pas.com
[7] ISA (2007). ”Alarm Management: Current
State and Direction for Alarm Management
Guidelines”. ISA EXPO 2007, Houston, USA .
[8] HSE Books (1995). “The Explosion and Fires
at the Texaco Refinery, Milford Haven, 24 July
1994”, Sudbury, U.K. (1995).
Se desempeña como Operador de Sistema de Generación
y Transmisión de CENACE desde el año 2001
199
Marco de Referencia para la Formulación de un Plan de Continuidad de
Negocio para TI, un caso de estudio
M. Bautista
Corporación Centro Nacional de Control de Energía, CENACE
Resumen— El propósito de un Plan de
Continuidad de Negocio (Business Continuity
Plan, BCP por sus siglas en inglés) es proporcionar
procedimientos para mantener en funcionamiento
los servicios críticos de la organización a causa
de una interrupción de los mismos mientras se
realiza la recuperación, en caso de un desastre
natural o causado por humanos.
En la actualidad, la iniciativa de implantación
de un BCP/DRP tiene una prioridad alta para la
mayoría de las organizaciones, es una necesidad
estratégica que puede constituirse en el elemento
diferenciador entre subsistir o desaparecer del
Mercado.
La práctica ha demostrado que existen situaciones
en las cuales aparentemente un “simple”
mantenimiento de hardware puede dejar a una
organización sin su principal herramienta de
trabajo, causando el malestar de sus usuarios
internos/externos,
sanciones
disciplinarias/
regulatorias, pérdida de imagen y dependiendo de
la gravedad hasta el despido de sus representantes
con las respectivas acciones judiciales por daños
y perjuicios; simplemente por no contar con
procesos, procedimientos e instructivos que
identifiquen las acciones previas y posteriores
ante un escenario de desastre.
El presente trabajo pretende proponer un marco
de referencia que permita a las organizaciones
formular un Plan de Continuidad de Negocio para
TI o Plan de Recuperación de Desastres, a través
de la aplicación de principios claros y esenciales
expresados en un lenguaje natural.
Finalmente, se realizará la aplicación del marco
de referencia propuesto en el caso de estudio
para el DRP del Sistema de Medición Comercial
SIMEC del CENACE.
Palabras clave— Gobierno de TI, Análisis de
Riesgos, Plan de continuidad de negocios, Plan de
recuperación de Desastres, Análisis de impacto de
negocio.
Abstract— The purpose of the Business Continuity
Plan (BCP) is to provide procedures to maintain
the operation of an organization’s critical services
in the event of an interruption, while recovery
work is still in process, such as in the event of a
natural disaster or human error.
There is currently a BCP/DRP initiative which
has been classified as high priority by the majority
of organizations, as it is a necessary strategy
that could become the defining element between
remaining on the market, or from disappearing
from the market.
The practice has shown that there are
situations in which an apparently “simple”
hardware maintenance procedure could leave
an organization without its main work tool,
causing problems for its internal/external
users, disciplinary/regulatory fines, damage to
reputation and depending on the seriousness of
the issues, even the laying off of its representatives
with legal consequences for damage claims – all
due to a lack of proper processes, procedures and
instructions which identify the actions to be taken
before and after a disaster scenario.
This study attempts to propose a framework that
would allow organizations to formulate a Business
Continuity Plan for TI or a Disaster Recovery
Plan, through the application of clear and essential
principles expressed in everyday language.
To conclude, the proposed framework will
be applied to the study case – the DRP of the
CENACE’s SIMEC Commercial Measurement
System.
Index Terms— TI Government, Risk Analysis,
Business Continuity Plan, Disaster Recovery Plan,
Business Impact Analysis.
1. INTRODUCCIÓN
Un desastre es un incidente causado por la naturaleza
o por seres humanos, que afecta negativamente a las
organizaciones y su entorno llevando a grandes daños,
destrucción y devastación a la vida y su propiedad [1].
200
Los desastres naturales pueden ser causados por:
terremotos, inundaciones, tornados, tormentas eléctricas
severas e incendios; mientras que los desastres causados
por los seres humanos se deben a actos de terrorismo,
ataque de hackers, sabotajes, empleados disgustados,
entre otros. Existe otro tipo de interrupciones como
la pérdida del suministro de energía eléctrica,
telecomunicaciones y gas natural que igualmente pueden
provocar eventos fatales; así como también, pueden darse
otro tipo de incidentes como: eliminación accidental de
la información, ataques de negación de servicios, virus,
que si bien no pueden generar desastres, pero si pueden
llevar a eventos de alto riesgo que pudieran interrumpir el
normal desenvolvimiento de una organización.
interactivo que es diseñado para identificar los procesos
de misión crítica del negocio y desarrollar políticas,
planes y procedimientos para asegurar la continuidad de
estos procesos en el caso de un evento imprevisto [2].
Cada organización compromete el uso de sus recursos,
el capital humano y la ejecución de las actividades diarias
con el propósito de permanecer en el mercado, lograr
estabilidad y rentabilidad. La mayor parte de ellas poseen
bienes tangibles como: insumos, maquinarias, empleados
y sistemas computarizados; y bienes intangibles como:
procesos, tecnología, información, prestigio, entre otros,
la afectación o daño de cualquiera de ellos podrían causar
la paralización de actividades. Mientras mayor sea el
tiempo de indisponibilidad de estos recursos, mayor será
la posibilidad el sufrir un daño irreversible, y en algunos
casos se ha visto la desaparición de varias organizaciones
por su incapacidad de recuperación ante un evento de
desastre.
3. RECUPERACIÓN DE DESASTRES
A continuación se presentan algunas razones por las
cuales es indispensable recuperar las actividades de un
negocio:
• Valor de la empresa, por naturaleza toda empresa
busca generar mayor rentabilidad para sus
propietarios y accionistas en función de sus
capacidades.
• Presión de los competidores, ante la
indisponibilidad de los productos o servicios de
una empresa, es la competencia la que adquirirá
mayor presencia en el mercado.
• Demandas del mercado, cada vez los
requerimientos de los clientes son más exigentes
y en tiempos de respuesta menores.
• Disposición de los reguladores, el cumplimiento
de la normativa dispuesta por los entes de
regulación y control obliga a tomar medidas
preventivas a fin de evitar sanciones.
2. CONTINUIDAD DEL NEGOCIO
En el nivel más básico, el Plan de Continuidad de
Negocio (Business Continuity Planning, BCP por sus
siglas en inglés) puede ser definido como un proceso
El BCP es responsabilidad de la Alta Gerencia debido
a que se encarga de la protección de los activos y la
viabilidad de la organización, de manera concomitante
a lo definido en sus políticas. El BCP es generalmente
ejecutado por las unidades de negocio y soporte, a fin de
proveer un reducido pero suficiente nivel de funcionalidad
en las operaciones, inmediatamente después de detectarse
una interrupción mientras las actividades de recuperación
se llevan a cabo.
El DRP (Disaster Recovery Planning, por sus
siglas en inglés) es el proceso de evaluación de los
riesgos que enfrenta una organización, para luego
desarrollar, documentar, implementar, probar y mantener
procedimientos que ayudan a la organización a retornar
rápidamente a las operaciones normales y reducir al
mínimo las pérdidas después de un desastre [3]. Un
DRP está enfocado a los sistemas de información,
diseñado para restablecer la operación de los servicios
informáticos críticos específicos (hardware y software),
con instalaciones, infraestructura y procedimientos
alternos, en caso de una emergencia; el responsable del
DRP es el departamento de TI de la organización.
Es por ello que el DRP debería estar alineado con la
estrategia de la organización; la criticidad de los diferentes
sistemas de información depende de la naturaleza del
negocio, así como también, del valor que cada aplicación
aporta al negocio.
Debido a que cada organización tiene su identidad,
cultura, clima organizacional, relaciones con sus clientes,
socios de negocios y el público en general. Estas
relaciones deberían conducir a una organización en el
emprendimiento de una iniciativa de planificación de
recuperación de desastres.
4. RELACIÓN ENTRE EL BCP Y DRP
El alcance de un DRP está generalmente limitado a
un conjunto definido de sistemas e infraestructura de TI,
cuyo objetivo final es la recuperación oportuna, completa,
dentro de un plazo de tiempo definido y con la mínima
pérdida de datos. El proceso para la determinación de
qué sistemas de TI son necesarios incluir en un DRP, es
generalmente manejado por el departamento de TI, con
los aportes de los propietarios de las aplicaciones quienes
pueden o no ser parte del departamento.
201
En contraste, el alcance del BCP puede ser toda
la empresa, con el objetivo final de recuperar las
funciones principales y de misión crítica del negocio
para asegurar su supervivencia, considerando aspectos
como la infraestructura física y el personal necesario.
Las funciones de negocio a ser recuperadas en un BCP se
extienden más allá de los sistemas de TI como se muestra
en la Tabla 1.
• Identificación de áreas de oportunidad y
alternativas de operación durante el desastre.
• Cálculo de pérdidas aproximadas por inoperancia
de procesos críticos.
• Ventaja competitiva frente a otras organizaciones.
• Prevención ante la aplicación de sanciones
económicas
por
incumplimiento
de
requerimientos regulatorios.
6. PROCESOS DE LA RECUPERACIÓN DE
DESASTRES
Tabla 1: Alcance del DRP frente al BCP
Como cada organización es única, así también lo
es cada BCP de TI que lo pertenece. El proyecto de
recuperación de desastres es un proyecto solo o como
parte de una iniciativa de BCP.
Los procesos para la planificación de recuperación de
desastres pueden ser divididos en las siguientes fases del
ciclo de vida como se muestran en la Fig. 1.
5. BENEFICIOS DE CONTAR CON UN DRP
Dado el caso de una interrupción real, las
organizaciones actualmente dependen en gran medida de
la interacción e interdependencia con otros colaboradores
en el entorno de su negocio. Incluso el contar con un DRP
es un objetivo que beneficiará a las organizaciones de
muchas maneras; pero que no garantiza que las mismas
sean capaces de recuperarse íntegramente de un desastre.
La efectividad en la ejecución de este plan se debe
basar en asumpción de varios supuestos como contar con:
la infraestructura y recursos para recuperar los sistemas
críticos, los técnicos idóneos, centros de funcionamiento
alternos, entre otros.
La organización que tenga implementado un DRP,
independientemente de prevenir y minimizar las pérdidas
para el negocio, debe garantizar que cuenta con una
respuesta planificada ante una interrupción importante que
pueda poner en riesgo su subsistencia, aspecto que debería
ser considerado muy seriamente para su instauración en
todas las organizaciones independientemente del sector,
actividad o tamaño que tuvieren.
Entre otros beneficios se tiene:
• Diseño de medidas para reducción de riesgos
identificados.
• Determinación de procesos críticos y vulnerables
dentro del negocio.
• Operación de procesos críticos de un negocio
durante el desastre.
Figura 1: Ciclo de Vida de la Planificación de Recuperación de
Desastres
6.1. Planificación del Proyecto
Se parte de la premisa que el proyecto cuenta con el
auspicio y financiamiento necesario por parte de la Alta
Gerencia de la empresa como un requisito primario e
indispensable. Esta fase comprende la identificación de
las actividades que deben realizarse en forma previa para
comenzar el proyecto, es decir, qué se va a hacer y por
qué.
Los objetivos del proyecto de la planificación de
recuperación de desastres son: obtener un entendimiento
del actual y futuro ambiente de TI de la organización,
definir el alcance, desarrollar la programación y la
identificación de riesgos del proyecto, mediante la
ejecución de las siguientes tareas:
202
• Nombrar el coordinador de recuperación de
desastres.
• Crear la política de recuperación de desastres.
• Realizar la planificación del proyecto.
6.2. Análisis de Impacto de Negocio – BIA
El análisis BIA es un paso crítico en el desarrollo de
una estrategia de recuperación de desastres, consiste en
evaluar los procesos críticos (y los componente de TI
que los soportan) de la organización y determinar los
plazos, prioridades, recursos e interdependencias, como
resultado de la paralización de una o varias actividades.
el RTO se refiere al período de tiempo después de un
incidente en el que un producto, actividad o servicio
debe ser reanudado, o un recurso debe ser recuperado.
El RPO se refiere al punto más reciente en el cual los
sistemas pueden ser recuperados; por tanto, constituye
un indicador de la cantidad de información que una
organización puede permitirse perder sin que afecte al
negocio.
En la Fig. 3 se ilustra la relación entre el RTO, RPO y
el MTD ante la ocurrencia de un evento de desastre.
Una vez recopilada la información, su análisis se
realiza en base a dos factores de costos independientes
que pueden ayudar a tomar la mejor decisión:
• Costo de tiempo de inactividad, en el corto plazo
tiene un valor bajo, sin embargo, a medida que el
tiempo avanza tiende a crecer rápidamente hasta
llegar a un punto de estabilización que representa
que el negocio ya no puede funcionar.
• Costo medidas alternativas correctivas, que
iniciando con un valor alto empiezan a decrecer
en función del tiempo objetivo de recuperación.
Una vez identificados los dos costos y la suma de los
mismos como se muestra en la Fig. 2 la organización
podría identificar el punto en el cual el costo total
puede ser minimizado. Cada punto en la curva en su
conjunto, representa una posible estrategia, que a su vez
tiene su respectivo costo, normalmente los objetivos de
recuperación de tiempos cortos son a su vez los más
costosos.
Figura 3: Localización del RTO, RPO y MTD en el tiempo
ante la presencia de un evento de desastre
6.3. Evaluación de Riesgos y Análisis
El análisis de riesgos es un proceso sistemático que
consiste en identificar las amenazas sobre estos activos
y su probabilidad de ocurrencia, las vulnerabilidades
asociadas a cada activo y el impacto que las citadas
amenazas pueden provocar sobre la disponibilidad de los
mismos.
Existen varias metodologías de análisis de riesgos,
de igual manera soluciones de software que permiten
automatizar dicho proceso, sin embargo, todas se basan
en el siguiente esquema de funcionamiento:
• Identificar los activos.
• Identificar y evaluar las amenazas.
• Identificar y valorar las vulnerabilidades.
Calcular el riesgo como la probabilidad de que se
produzca un impacto determinado en la organización.
Figura 2: Costo de Inactividad vs. Costo de Medidas
Alternativas
El tiempo máximo permitido de interrupción (Max
Time Disruption, MTD) que puede ser soportado por la
organización hasta que las pérdidas no sean asumibles,
junto con el tiempo de recuperación objetivo (Recovery
Time Objective, RTO) y el punto de recuperación objetivo
(Recovery Point Objective, RPO) son parámetros que
están vinculados directamente con la recuperación, y
son los principales resultados del BIA. Específicamente,
Hay múltiples formas de tratar un riesgo: evitar las
circunstancias que lo provocan, reducir las posibilidades
de que ocurra, acotar sus consecuencias, compartirlo con
otra organización (contratando un servicio o un seguro de
cobertura), o en última instancia, aceptando que pudiera
ocurrir y previendo recursos para actuar cuando sea
necesario.
203
6.4. Medidas Preventivas
En función de los resultados del BIA y el análisis
de riegos, se deben identificar y aplicar las medidas
de seguridad necesarias para evitar que se produzcan
incidentes que al no ser tratados de manera adecuada
active el plan de recuperación de desastres.
Las medidas deben permitir reducir la probabilidad de
ocurrencia de interrupciones en las actividades críticas,
la duración, limitando el impacto que pueda provocar en
la organización y así fortalecer al negocio mediante la
eliminación de puntos de fallo.
Para ello se elabora un plan que incluye acciones que
la organización debe adoptar para prevenir y evitar dentro
de lo posible los riesgos que afectan la disponibilidad de
las operaciones.
6.5. Estrategia de Recuperación
En base a los resultados del BIA y del análisis de riesgos,
el objetivo que se persigue en esta fase es identificar las
alternativas de recuperación de los servicios críticos de la
organización en concordancia con los tiempos definidos
y acordados.
La elección de las diferentes alternativas de
recuperación depende de las necesidades de la
organización: tiempos de recuperación objetivo (RTO),
costos, recursos, seguridad, entre otros; cada plataforma
de TI que soporte una función crítica de negocio, deberá
contar con una estrategia de recuperación. A continuación
se muestran algunas alternativas:
• Hot Sites, normalmente está configurado con
todo el hardware y el software requerido para
iniciar la recuperación a la mayor brevedad.
• Warm Sites, esta opción no incluye servidores
específicos de alta capacidad.
• Cold Sites, esta opción sólo tiene el ambiente
básico (aire acondicionado, cableado eléctrico,
enlaces de telecomunicaciones, y otros).
• Mirror Sites, se procesa cada transacción en
paralelo con el sitio principal.
• Acuerdos recíprocos con otras organizaciones.
• Múltiples centros de procesamiento.
6.6. Desarrollo e Implantación del Plan
Una vez que las estrategias han sido definidas, deben
identificarse los métodos, plazos, personas, recursos y
tareas necesarias para implementarlas, así como también,
la puesta en marcha por los encargados de la recuperación
de desastres de la organización.
Un DRP es un conjunto estructurado de procesos y
procedimientos destinados a proporcionar una respuesta
rápida al desastre y a los esfuerzos de recuperación. El
plan debe documentarse y escribirse en un lenguaje
simple que sea entendible para todos los equipos de
recuperación.
De igual manera se deben establecer las estructuras
organizacionales, perfiles de los cargos y los procesos,
que darán sostenibilidad a la continuidad del servicio de
TI. La definición de roles y responsabilidades es uno de
los aspectos más importantes del DRP, ya que es aquí
donde se determina cada una de las actividades a cumplir
antes, durante y después del desastre por los responsables
de la ejecución del plan.
6.7. Pruebas y Actualización del Plan
La efectividad del DRP en situaciones de emergencia
se puede valorar si existe un plan de prueba que se lleve
a cabo en condiciones reales. La fase de prueba debe
contener las actividades más importantes que requieran
comprobación y certeza en su funcionamiento futuro.
Se debe probar dentro de un ambiente que simule las
condiciones que serían aplicables en una emergencia
verdadera. Es también importante que las pruebas se
lleven a cabo por las personas que serían responsables de
esas actividades en una crisis.
El DRP debe ser mantenido a través de un ciclo de
mejora continua. Cualquier cambio a nivel organizativo,
operacional o técnico puede impactar en el negocio y por
tanto en el plan de recuperación.
En el caso de que se evidencien cambios que afecten
a la organización y que tengan impacto en los procesos
críticos de negocio y sus servicios de TI, puede ser
necesario revisar el BIA y el análisis de riesgos para ver en
qué medida dichos cambios pueden provocar desajustes
en las estrategias y los procedimientos. De esta forma, la
organización puede disponer de ciertas garantías sobre la
efectividad de su plan de recuperación de desastres.
7. CASO DE APLICACIÓN - SISTEMA DE
MEDICIÓN COMERCIAL SIMEC
El Sistema de Medición Comercial (SIMEC) permite
gestionar la medición de los registros cuarto-horarios de
energía y otros parámetros eléctricos, en los puntos de
generación/entrega del Sistema Nacional Interconectado
(SNI). La información generada en el SIMEC constituye
el principal insumo para los procesos de liquidación y
facturación del Mercado Eléctrico Mayorista Ecuatoriano.
204
Dentro de los procesos de la cadena de valor de la
Corporación CENACE está el proceso “Administrar
y Liquidar las Transacciones del MEM y de las TIE”
que utiliza como principal insumo para la ejecución de
sus procesos internos la información de los registros de
energía cuarto-horarios procedentes del SIMEC.
1. Perdida
del enlace
comunicación
CENACE CNT
Desde el punto de vista de los parámetros utilizados en
el BIA, el SIMEC tiene la siguiente configuración:
• RTO: 24 horas
• RPO: 24 horas
b) Evaluación de Riesgos
En la Fig. 4 se presenta un ejemplo de la matriz de
riesgos resultante del análisis del sistema SIMEC,
tomando como referencia la metodología OCTAVE.
3
3
A
3. Corrupción
de la base
de datos del
SIMEC
3
4
E
Aceptar
Compartir
A
Evitar
3
Respuesta al
riesgo
Reducir
3
2. Actualización
de la
configuración
del sistema
operativo
Ante la incompleta o inexistente información fuente,
los procesos de liquidación y facturación simplemente no
pueden ejecutarse, de allí que, el SIMEC es considerado
como un componente crítico dentro del portafolio de
servicios que actualmente dispone el CENACE.
La Regulación No. CONELEC 005/006 estipula, “es
responsabilidad del Agente propietario de los equipos de
medición publicar diariamente en el portal de Internet
del concentrador primario de medidas del CENACE,
los archivos de información generados exclusivamente a
partir de lecturas TPL, para cada uno de sus puntos de
medición. La hora máxima para realizar esta remisión
es hasta las 09:00 del día posterior al de operación”.
En función de este requerimiento normativo, para el
SIMEC el tiempo máximo de interrupción está en el
orden de horas, considerado como un nivel urgente de
recuperación.
Nivel de riesgo
a) Análisis de Impacto de Negocio
Impacto
Eventos de
riesgo
Probabilidad
Riesgo
Inherente
Con base al marco de referencia previamente analizado,
se procede con la aplicación a manera ejemplificativa del
ciclo de vida de algunos procesos de la planificación de
recuperación de desastres aplicados al SIMEC.
Respuestas/
actividades de
control
Contratar de un
enlace de datos
adicional con otro
proveedor
X
X
X
Adquirir los
servicios
de soporte
especializado del
fabricante
Implementar una
solución de
backups
automatizada
Figura 4: Matriz de Riesgos SIMEC
c)
Medidas Preventivas
A continuación se listan algunas medidas preventivas
a fin de prevenir la ocurrencia de incidentes no deseados:
• Establecer un enlace de comunicaciones
redundante con un proveedor distinto para la
publicación de los portales Web del SIMEC.
• Instalación de un software antivirus en todos los
servidores de la plataforma Microsoft.
d) Estrategia de Recuperación
En base a los resultados del BIA, el análisis de riesgos,
la naturaleza e importancia del proceso que se lleva a
cabo en el sistema SIMEC, la estrategia que luce más
adecuada para su recuperación es contar con un Hot Site,
que permitiría al CENACE continuar con la operación
del SIMEC dentro de los períodos de tiempo requeridos
(inclusive con tiempos menores) ante la ocurrencia de
un evento disruptivo. Este planteamiento sería la opción
deseable desde la óptica conceptual indicada en el
numeral 6.5.
Al momento el SIMEC cuenta con las siguientes
medidas para asegurar en gran parte su operación diaria
y disponibilidad:
205
• Implementación de Clusters, a nivel de los
servidores de base de datos se utiliza la
configuración activo/pasivo. Otros componentes
como los servidores de registradores, aplicaciones
y otros componentes de capa media utilizan
clusters bajo la modalidad activo/activo sobre
una arquitectura de servidores virtualizados, de
manera que ante la caída de un servidor guest
virtual el mismo sea arrancado en otro servidor
host. En la Fig. 5 se muestra la arquitectura física
y virtual del SIMEC.
• Almacenamiento, el SIMEC guarda toda su
información en una solución de almacenamiento
de la gama corporativa, posibilitando la creación
de arreglos de discos virtuales que manejan
redundancia del tipo 0, 1, 5 y 6.
• Ejecución de backups, es una tarea automatizada
que se realizada a través de un robot de cintas,
con esquemas de backup diarios tipo full e
incremental.
8. CONCLUSIONES Y RECOMENDACIONES
• El DRP / BCP involucran procesos complejos que
pueden ser los salvavidas de una organización,
el contar con procedimientos, infraestructura
y recursos para acometer un proceso de
recuperación antes de registrarse pérdidas graves,
serán la garantía para restaurar la funcionalidad
de los servicios de información claves de manera
controlada y con la menor pérdida en caso de una
interrupción.
• Es vital el conocimiento de la organización y
su naturaleza de negocio de parte del equipo
de recuperación, pues de ello dependerá la
identificación acertada de los procesos críticos
sobre los cuales se establecerán las estrategias
más convenientes para su implementación,
permitiendo además una estimación correcta de
los recursos necesarios.
• El SIMEC es un componente crítico para la
Corporación CENACE con requerimientos de
funcionalidad y disponibilidad establecidos
por normativa, que al momento han sido
cubiertos satisfactoriamente, sin embargo,
existen estrategias de recuperación de desastres
alternativas que podrían ayudar a mejorar
aún más los niveles objetivo de recuperación,
basados en soluciones como Hot Site o el uso de
tecnologías emergentes conocidas bajo el nombre
de Recuperación como Servicio (Recovery as a
Service - RaaS).
• El presente artículo constituye un breve ensayo
de lo que sería la aplicación de un plan de
recuperación de desastres, es evidente que en
un corto plazo este tipo de iniciativas deben ser
complementadas a fin de lograr un marco de
referencia de acuerdo a la realidad y necesidades
propias de CENACE.
Figura 5: Arquitectura SIMEC
• Las configuraciones previamente indicadas
cuentan con sus respectivos instructivos y
procedimientos documentados, mismos que
constituyen en primera instancia la documentación
de recuperación de los componentes del SIMEC.
• Soporte, iniciando desde el hardware de
servidores, dispositivos de red, software de
base, y culminando con el propio sistema, el
CENACE cuenta con el respectivo soporte de
los proveedores y con los niveles de respuesta
acordes al nivel de exigencia y disponibilidad del
sistema.
REFERENCIAS BIBLIOGRAFÍCAS
Finalmente, la operación del SIMEC está bajo
la responsabilidad de varios equipos de trabajo
interdisciplinarios agrupados en los siguientes roles:
Usuarios Operadores, Administradores de Infraestructura
y Redes, Bases de Datos y Coordinadores.
206
[1] EC-Council (2010). “Introduction to Disaster
Recovery & Business Continuity”, pp. 8-14,
EEUU.
[2] Nickolett, Chip; Schmidt, Jason (2008).
“Business Continuity Planning Description and
Framework”, Comprehensive Solutions, EEUU.
[3] Erbschloe, M. (2003). Guide to Disaster
Recovery. Boston, Massachusetts: Thomson,
Course Technology.
[4] ISACA. (2012). CISA Review Manual 2012.
22nd Ed. United States of America.
[5] ISACA. (2012). COBIT 5: Enabling Processes.
United States of America.
[6] Alberts, C.y Dorofee A. (2001). OCTAVESM
Method Implementation Guide Version 2.0.
Pittsburgh: Carnegie Mellon University.
Marco Antonio Bautista Salazar.Nació en Ambato, Ecuador, en
1976. Recibió su título de Ingeniero
en Sistemas Informáticos y de
Computación de la Escuela
Politécnica Nacional en el 2001,
actualmente está desarrollando la
tesis de grado para la obtención de
su título de Magister en Gerencia de Sistemas y
Tecnologías de Información.
Sus áreas de interés están relacionadas con la
Administración de Bases de Datos Corporativas,
Arquitecturas Orientadas a Servicios, Inteligencia
de Negocios, Planes de Continuidad de Negocios y
Recuperación de Desastres. Actualmente desempeña
las funciones de Coordinador del Área de Informática
(Encargado) de la Corporación CENACE.
207
Formulación de un Marco de Referencia de Convergencia IT/OT
G. Pancho †
F. Galarza ‡
† Universidad de las Américas
‡ Corporación Centro Nacional de Control de Energía, CENACE
Resumen— La convergencia entre las tecnologías
operacionales y de información, está determinando
cambios importantes en los modelos de negocio
de las empresas de la vertical de Utilities, que
van desde la formulación de nuevos procesos de
gestión técnica, la redefinición de estructuras
organizacionales, hasta nuevas orientaciones
en la estrategia de desarrollo de aplicaciones y
servicios. Desde una perspectiva más amplia, la
convergencia IT-OT, ha sido la habilitadora de
la tendencia que está determinando el futuro del
servicio de electricidad: Smart Grids.
El presente artículo presenta los conceptos e
impulsores más relevantes de la convergencia ITOT, a partir de lo cual se formula un marco de
referencia que identifica los modelos, disciplinas
y procesos que deben ser considerados para una
evolución ordenada.
Palabras clave— Convergencia IT-OT, Marco
de Referencia, CENACE, Gobierno IT/OT,
Estándares, Mejores Prácticas.
Abstract— In the convergence between operations
and information technologies, important changes
are determined in the business models of vertically
integrated Utility companies, which range from
the formulation of new technical management
processes and the redefining of organizational
structures, to new directions for the strategic
development of applications and services. From
a wider perspective, the IT-OT convergence has
enabled the trend which is changing the future of
electricity services: Smart Grids.
This article presents the concepts and driving
forces which are most relevant to the ITOT convergence, from which a framework is
formulated that identifies models, disciplines and
processes that should be considered during an
orderly development process.
Index Terms— IT-OT Convergence, Framework,
CENACE, IT/OT Government, Standards, Best
Practices.
1. INTRODUCCIÓN
La integración de la tecnología operacional y de
información es una exigencia que permitirá a las
empresas la generación de oportunidades de crecimiento
en varias aristas.
El aporte de esta investigación tiene que ver con una
mejor conceptualización del gobierno de los temas IT/OT,
la homogenización y optimización de procedimientos,
estándares y prácticas especialmente en el lado OT,
donde en el caso de CENACE, se soportan sistemas de
misión crítica como el EMS, WAM y futuro SPS1 .
2. CONCEPTOS E IMPULSORES
La Tecnología Operacional, en adelante OT (por
sus siglas en inglés: Operational Technology) ha sido
tradicionalmente un enfoque asociado a sistemas de
tecnología e información que actúan sobre procesos
físicos, en los que coexisten máquinas, sensores y
actuadores; con una dinámica de procesamiento en
tiempo real, con intervención en el lado de usuarios u
operadores, en los que su competencia se relaciona en
áreas de ingeniería, eléctrica, electrónica, industrial, entre
otras.
OT- Operational Technology se define como “el
equipamiento, dispositivos, sensores y software
utilizados para controlar o monitorear activos físicos y
procesamiento en tiempo real con el propósito de mantener
la integridad del sistema”. Como ejemplo se pueden
citar a los sistemas clínicos y equipamiento médico en
empresas de salud, equipamiento automatizado utilizado
en manufactura, sistemas de transmisión eléctrica,
sistemas SCADA, sistemas de control, entre otros.
Por su parte la Tecnología de Información, en adelante
IT (por sus siglas en inglés: Information Technology)
se ha referido a soluciones informáticas transaccionales
que interoperan sobre motores de bases de datos,
con arquitecturas lógicas multicapa que extienden su
aplicación a redes LAN-WAN.
1
208
EMS: Energy Management System. WAM: Wide Area Measurement,
SPS: Systemic Protection System
IT – Information Technology se define como el
“conjunto de recursos, procedimientos y técnicas
utilizadas en el procesamiento, almacenamiento y
transmisión de la información, denominados sistemas de
información” [1]. La responsabilidad de aquello incluye,
entre otros aspectos, la administración de red, desarrollo
de software, la gestión y planeamiento del ciclo de vida
de la tecnología dentro de la organización, etc. Como
ejemplo se pueden citar los sistemas ERP, sistemas de
gestión de contenido SCM, etc.
A continuación se despliega un cuadro comparativo
entre sistemas IT y OT:
IT
OT
Propósito
Gestión de
información,
Automatización de
procesos de negocio
Manejo de activos,
Procesos de Control
Arquitectura
Transaccional o
Batch, bases de datos
relacionales o texto
Tiempo Real,
Software embebido
Interfaces
Navegador web,
Terminales y teclado
Sensores, Displays
codificados
Propietario
CIO, Ingenieros
de Informática,
Finanzas,
Adquisiciones
Ingenieros técnicos,
Gerentes de línea de
negocios
Red Corporativa,
basada IP
Redes de control
(en incremento redes
IP y wireless)
ERP, SCM,
CRM, E-mail
SCADA, PLCs,
Sistemas de Control,
Modelamiento
Conectividad
Ejemplos
y prestaciones del entorno IT para responder a las
exigencias de la computación de alto desempeño (HPC:
High Performance Computing).
Esta convergencia IT-OT no solo se refleja en la
estandarización del uso de tecnologías para todo propósito,
sino también en el homogenización de las prácticas de
gestión. El enfoque hacia la gestión de servicios, con un
ciclo que va desde lo estratégico hasta lo operacional, el
gobierno de IT y la gestión de proyectos, se constituyen
en elementos transversales.
La integración IT-OT no es opcional, es una realidad
de aplicación mandatoria, para que las inversiones
en proyectos OT sean viables y óptimas y para que la
operación de soluciones sea sustentable en términos de
eficiencia y eficacia.
El impacto de esta convergencia ha determinado en la
industria incluso el replanteamiento de los modelos de
negocio por parte de algunos proveedores representativos
de OT, con estrategias de compra de empresas de
IT para incorporarlas en sus procesos de I&D&i. El
aparecimiento de las redes inteligentes (en inglés: Smart
Grids), es la evidencia más notoria de la inmersión de IT
en la tecnología operacional a todo nivel, que sustenta el
proceso industrial que a su vez soporta el servicio de la
electricidad.
3. MARCO
DE
REFERENCIA
PARA
DESPLEGAR LA INTEGRACIÓN IT – OT
Figura 1: Cuadro comparativo IT/OT
Fuente: Gartner
Son varios los tipos de industrias que históricamente
han creado una separación entre IT y OT, como una
forma de especialización natural y de priorización, desde
la organización departamental, hasta los procesos y las
prácticas de gestión y los perfiles de los profesionales
a cargo. De hecho los sistemas OT eran creados como
sistemas propietarios, con base a tecnología específica,
normalmente más costosa, que responda a estándares
operativos de mayor exigencia.
El incremento exponencial de los últimos 5 años en
cuanto a capacidad de procesamiento, comunicación
de datos, velocidad de redes, y la introducción de
nuevas tecnologías tales como: Internet oh things, in
memory computing, fabric, cloud computing, entre
otras, han determinado un nuevo entorno de capacidades
La convergencia IT-OT es una realidad que se robustece
con el desarrollo integrado e interoperable de las nuevas
tecnologías y las nuevas prácticas, que plantea también
un desafío a las empresas clientes: ¿cómo realizar una
adopción estructurada, a la medida de cada realidad?. La
mejor aproximación de respuesta es formular un Marco
de Referencia de Integración IT-OT.
Un Marco de Referencia, por concepto se constituye
en una guía y una referencia para la aplicación de
una disciplina, con una naturaleza flexible por no ser
prescriptiva en su aplicación, pero que a su vez considera
los elementos esenciales, para que su aplicación sea
efectiva, con orientación hacia la calidad y con control
de los riesgos.
La figura que se presenta a continuación ilustra
los elementos esenciales del Marco de Referencia de
Integración IT-OT.
209
cambio la identificación de procesos, funciones y roles,
así como las habilidades y competencias son en realidad
los elementos centrales del problema a resolver.
Tecnología, Aplicaciones
e Información
Gobierno y
Arquitectura
Empresarial
Convergencia
IT-OT
Alistamiento
Organización
y Procesos
Figura 2: Marco Referencia – Integración IT-OT
El Marco de Referencia referido pretenderá responder
a las siguientes incógnitas:
• ¿Cuáles serían los procesos de gestión de
infraestructuras IT-OT?
• ¿Cuál sería un modelo organizacional de
una Unidad Técnica a cargo de la gestión de
infraestructuras IT-OT?
• ¿Cuáles serían los elementos para asegurar
la integración e interoperabilidad de una
infraestructura IT-OT?
• ¿Cómo identificar el nivel de alistamiento y
madurez de una organización en cuanto a aplicar
la integración IT-OT y sus posibles niveles de
evolución?
• ¿Cómo el Gobierno y la Arquitectura empresarial
puede facilitar la integración de IT-OT?
Figura 3: Marco Referencia – Integración IT-OT
Fuente: Gartner
Algunas premisas de base que se constituyen en
criterios de referencia para formular una organización y
sus procesos se indican a continuación:
Procesos integrados y transversales para la gestión de
infraestructura IT-OT: data center, redes, networking, etc.
• Despliegue de la función de mesa de servicio
(helpdesk) con SLAs diferenciados, uno para
la función informática estándar y otro para los
servicios de misión crítica, en el que se incluya a
los servicios derivados de los sistemas OT.
• Despliegue de una PMO única (del inglés:
Project Management Office), responsable de
la administración de iniciativas IT-OT, que
estandarice las prácticas a través de grupos
procesos estandarizados para el gobierno de
proyecto: inicio, planificación, ejecución,
seguimiento y control y cierre. Pero para el caso
de iniciativas OT, mantenga las particularidades y
buenas prácticas de la ingeniería de campo.
• Creación de áreas de aplicaciones con
exclusividad de personal en el tema OT, a fin de
que procesos técnicamente sensibles, dispongan
de una atención dedicada en cuanto a gestión de
cambios y configuración.
3.1. Organización y Procesos
La organización de las Unidades de Gestión de
Tecnología, o denominaciones equivalentes, afrontan
ahora mismo una reingeniería, a fin de afrontar su nuevo
rol: de amplificador de la estrategia empresarial a través
del uso inteligente de las tecnologías. Los estándares y
nuevas prácticas con este propósito son múltiples, así
ITIL, COBIT, ISO 20000, ISO 27000, entre otros, son
ejemplos reales, sin contar con instrumentos propios que
han ido conceptualizando las grandes corporaciones,
proveedoras de soluciones.
Una estructura organizacional bien diseñada se basa en
principios de base claros formulados a partir de buenas
prácticas. La orientación de diseño basada en servicios es
una alternativa que otorga visibilidad y flexibilidad de la
organización de IT-OT.
El gráfico que se despliega a continuación sugiere que
es menos importante encontrar un organigrama, pero, en
En forma previa a un rediseño organizacional y a la
definición de posiciones, es indispensable introducir los
conceptos de funciones y roles.
Las funciones representan la manera como la
organización de IT-OT asegura que exista una asignación
clara de procesos. Cada función tiene el aporte de
profesionales que ejercen un conjunto de roles asociados,
y a su vez, cada rol una serie de responsabilidades. Aunque
210
el número de funciones pueden variar dependiendo de
cada caso, en la industria se han identificado 7 principales.
La siguiente tabla ilustra además las funciones y la
naturaleza del trabajo de cada área2 :
Tabla 1: Función y procesos IT – OT
3.2. Alistamiento
En base a lo sustentado, es claro que la integración
IT-OT no solo es un concepto, sino también un proceso
de evolución y una estrategia de alineamiento, cuya
adopción requiere de habilitadores que se los construye
de manera secuencial.
El modelo de alistamiento, representa una
contextualización de estos habilitadores. La siguiente
figura ilustra lo indicado.
Alistamiento
Gestión Proyectos
Alistamiento
Equipos de Trabajos
Alistamiento Procesos
Alistamiento
Gestión Portafolio
Alistamiento
Roles - Funciones
Sobre esta base se definen algunas “buenas prácticas”:
• Separar las funciones con actividades planificadas
de aquellas de tipo no estructuradas (con
interrupciones).
• Enfocarse a la automatización de actividades
planificadas y repetitivas.
• Asignar al personal adecuado en los roles
adecuados.
• Empoderar al personal, quién es a su vez
responsable de rendir cuentas por el cumplimiento
de las responsabilidades asignadas.
• Combinar las funciones y roles según sea
apropiado, para tener una aproximación de las
posiciones.
2
•
•
Funciones: la forma en que la organización de IT opera para asegurar que
los trabajos necesarios son realizados mediante asignaciones específicas
a un responsable, quién rinde cuentas por lo ejecutado.
Responsabilidad: los detalles del trabajo que debe ser realizado por un
rol tipo.
Rol: conjunto de responsabilidades. Dependiendo del tamaño de la
organización de IT, varios roles puedes ser realizados por una persona, o
un rol específico puede tener asignación de múltiples profesionales.
Gestión Cambio Organizacional
Alistamiento
Empresarial
Conocimientos y Habilidades
Figura 4: Elementos de Alistamiento
El alistamiento es una medida de la brecha que existe
entre la situación actual y una deseada, en términos de
conocimientos, habilidades, procesos, organización,
personas y cultura para evolucionar a una integración ITOT.
El alistamiento puede evaluarse en varios niveles,
desde lo empresarial, a equipos de trabajo e individuos.
En lo empresarial, el alistamiento se refiere a la capacidad
de formular estrategias organizacionales, gestión de
portafolios y proyectos, que enfrenten a las iniciativas de
IT-OT en forma integral, con un mapa de ruta de desarrollo
de mediano plazo. En el nivel de equipos de trabajo, se
refiere a la capacidad de que los profesionales de IT y OT
profesionalicen la gestión de proyectos y la operatividad
en forma estructurada en base a roles y funciones, que
tomen en cuenta estándares de dirección y gestión
aceptados por la industria. Finalmente, los procesos y
la estructura orgánica son elementos transversales del
modelo de alistamiento.
211
3.3. Tecnología de base, aplicaciones e información
La tecnología de base que incluye a la infraestructura
de procesamiento, redes, almacenamiento, seguridad y
monitoreo, tiene desde hace varios años una convergencia
IT-OT. Los sistemas propietarios no forman parte de las
soluciones actuales OT. Es más, existe la perspectiva
de una mayor utilización de la computación en nube y
arquitecturas híbridas como parte de los sistemas de
misión crítica. En cambio en lo relativo a la tecnología
de base que soporta la capa de instrumentación y
actuación sobre los procesos físicos, aún se mantienen
particularidades que no son extensivas hacia lo IT
(referencia estándar IEC 61850).
La integración IT-OT a nivel de la aplicaciones
está condicionado a lo que los proveedores realicen.
En las suites asociadas a la gestión de energía y de la
distribución, predominan aplicativos de core que son
desarrollados en base a una arquitectura tradicional,
enfocado a lo especializado en OT, sin considerar
enfoques de SOA, ESB y BPM. No obstante, la tendencia
es que las soluciones vayan migrándose a estos nuevos
enfoques; sin embargo, el segmento donde más es visible
la integración IT-OT son las aplicaciones de inteligencia
de negocios y en los servicios de movilidad.
Para implementar un gobierno de negocio/IT efectivo
y confiable, se recomienda nombrar un representante en
el grupo de directivos claves, que asuma la visión de la
convergencia IT-OT en la empresa, involucrando a las
áreas de IT, OT y otros potenciales interesados.
A fin de integrar la tecnología digital, estándares
y conexiones, se debe tener la flexibilidad de aceptar
las variaciones entre arquitecturas IT-OT, pero con un
planeamiento integrado, derivado de la arquitectura
empresarial modular e interoperable.
Con el propósito de desplegar un gobierno de
información y procesos de negocio, debe entenderse a
esta como práctica de nivel estratégico y no como una
cuestión de tecnología.
4. CASO DE APLICACIÓN: CENACE
A fin de aplicar el marco de referencia descrito en
secciones previas, se ha considerado el caso de CENACE
en donde coexisten sistemas y procesos IT-OT a los que
se puede aplicar una estrategia de convergencia, tal como
se indica continuación.
Tabla 2: Identificación de Sistemas
IT
Finalmente en lo relativo datos e información, se
experimenta una transición desde los motores de base de
datos de tipo propietarios a los de tipo comercial, aquello
en función de los niveles de confiabilidad y rendimiento
que actualmente tienen estas tecnologías.
Sistemas
representativos:
SIREM
La integración del Gobierno de IT - OT es un factor
crítico de éxito para construir una empresa conectada,
con una gestión por procesos, que evite silos funcionales.
Estos objetivos de control se sustentan en bases sólidas,
tal como se ilustra en la siguiente figura.
EMS
WAM
ERP
SIMEC
SIVO
SICOMB
ePSR
3.4. Gobierno y Arquitectura Empresarial
OT
BOSNI-SAM
SPS
Y otros 50 aplicativos
Tabla 3: Identificación de Unidades Organizacionales
IT
OT
DSI-EMS
DSI - Sistema Remoto
Gobierno de información y
procesos del negocio
DSI-Informática
DSI - SMEC
DSI - SICOM
DOP - WAM
Integrar tecnología
digital, estándares y
conexiones
DPL - DOP - SPS
a) Organización y Procesos (criterios de rediseño)
Gobierno de negocio /IT
efectivo y confiable
•
•
•
•
Figura 5: Integración de gobierno IT/OT
Fuente: Gartner
212
Gestión transversal de infraestructura y redes.
Gestión transversal de bases de datos
Gestión especializada de aplicaciones OT:
EMS+WAM+SPS
• SIMEC+SICOMB+Sistema Remoto
• Gestión especializada de aplicaciones BMS:
ePSR+SIMEM+SIVO+BOSNI+SAM
• Gestión transversal de aplicativos IT.
Gestión transversal de proyectos a través de una PMO
IT-OT
b) Alistamiento actual
• A nivel de empresa: alistamiento bajo
• A nivel de portafolios y proyectos: alistamiento
medio.
• A nivel de equipos de trabajo: alistamiento medio.
• A nivel de roles y funciones: alistamiento bajo.
• A nivel de procesos: alistamiento medio.
• A nivel de cambio organizacional: alistamiento
bajo.
c)
5. CONCLUSIONES Y RECOMENDACIONES
Actualmente no existe iniciativa o proyecto de
tecnología empresarial en la vertical de Utility
que no requiera de una convergencia IT-OT en la
conceptualización,
planificación,
implantación,
despliegue y operación de las soluciones.
El desarrollo histórico de OT fuera del ámbito de la
organización de IT es un obstáculo para reconocer el
potencial estratégico de inversiones en tecnología.
La convergencia IT/OT genera en las empresas
grandes oportunidades para:
• Reducir costos operacionales, de soporte, de
adquisición de software, entre otros.
• Disminuir silos en las unidades de negocio.
• Reducir el riesgo en el ámbito de cybersecurity
y de fallas debido a un inadecuado manejo de
software OT.
• Incrementar el desempeño, unificando equipos de
proyecto con las habilidades idóneas.
• Incrementar madurez en los mecanismos de
gobierno TI y OT
• Optimizar el modelo de negocio
Tecnología de base, aplicaciones e información
Tabla 4: Tecnología, aplicaciones e información
El marco de referencia IT/OT permite encontrar
enfoques estructurados hacia la eficiencia, la reducción
de riesgos operacionales y una mejor gestión de proyectos
combinados IT/OT.
Para el caso de CENACE la convergencia IT-OT se
considera:
• Por fortalecer, desde el punto de vista de
organización y procesos.
• Respecto al alistamiento con un nivel global entre
medio y bajo.
• En lo relativo a infraestructura, aplicaciones e
información, casi listo, debido a la adecuada
estrategia de modernización de los nuevos
sistemas IT-OT.
• Desde el punto de vista de gobierno y arquitectura
empresarial, se debe dar continuidad en la
adopción de estándares.
Gobierno y Arquitectura Empresarial:
• Desplegar la aplicación de los siguientes
estándares IT-OT: ITIL, COBIT, ISO 27000, ISO
22301.
• Desplegar la aplicación de los siguientes
estándares OT: NERC-CIP, IEC 61850, CIM
• Formular una arquitectura futura basada en SOA
con base a un ESB.
• Rediseño de procesos en base a BPM.
REFERENCIAS BIBLIOGRÁFICAS
213
[1] Wikipedia: Information Technology, http://
en.wikipedia.org/wiki/Information_technology
[2] Artículos Gartner: a) IT and OT Intersection and
Collaboration, b) Why Should I Care About
Operational Technology?, c) The Value of IT and
OT Integration, d) The Management Implications
of IT OT Convergence, e) Architecting the
Convergence of OT and IT
Germán Pancho Carrera.- Ingeniero
en Electrónica y Control otorgado
por la Escuela Politécnica Nacional
(EPN-1996). Master en Gerencia de
Sistemas obtenido en la Escuela
Politécnica del Ejército (ESPE2003). Su actividad profesional se ha
enfocado a la docencia universitaria
y al desarrollo de proyectos de tecnologías de información.
Actualmente ejerce las funciones de Director de la
Maestría en Gerencia de Sistemas de la Universidad de
las Américas y de Subgerente de Planificación y Gestión
de la Empresa Estratégica COCASINCLAIR EP.
Fernanda Galarza Herrera, nació en
Quito en el año 1980, recibió su título
de Ingeniera de Sistemas y
Computación de la Pontificia
Universidad Católica del Ecuador en
Quito en año 2005; y su título de
Diplomado de Gestión de Servicios
de la Tecnología de Información en el Instituto Tecnológico
y de Estudios Superiores de Monterrey en el año 2008.
Sus áreas de investigación están en el ámbito de la Gestión
de Tecnologías de Información. Actualmente ejerce sus
funciones como Ingeniera de Informática en la
Corporación CENACE.
214
Evolución del Centro de Operaciones
Una Propuesta de Esquema a las Nuevas Tendencias y Desafíos en
Ecuador
Roberto Barba Barba
Centro Nacional de Control de Energía, CENACE
Resumen— Se propone un esquema para el equipo
de turno en la sala de control del CENACE, que
responda a la evolución de los sistemas de potencia
y las nuevas tendencias tecnológicas aplicadas a
estos sistemas.
Este artículo está divido en cuatro secciones: En
la sección 1 se hace una breve reflexión sobre la
importancia de la misión del equipo de trabajo
que coordina, supervisa y controla la operación
del Sistema Nacional Interconectado – SNI; en
la sección 2 se realiza un análisis retrospectivo
– cualitativo de la evolución de la estructura del
Centro de Operaciones del Sistema Nacional
Interconectado, considerando el esquema
del equipo de turnos y la definición de las
responsabilidades; en la sección 3 se analizan los
nuevos retos en la operación del sistema nacional
interconectado, considerando el aumento en la
complejidad del mismo y las nuevas tecnologías
para la operación de sistemas eléctricos de
potencia; en la sección 4 se propone la estructura
del equipo de turno y sus responsabilidades
para operación adecuada del sistema para poder
enfrentar los retos futuros.
Palabras clave— Estructura de Equipo de Turno,
Operación del Sistema Nacional Interconectado.
Abstract— A new scheme is proposed for the shift
work team in the CENACE control center, which
would respond to the on-going development of
power systems and the new technological trends
applied to these systems.
This article is divided into four parts: Part
1 is a brief reflection on the importance of
the mission held by the work team in charge
of coordinating, supervising and controlling
operations of the National Interconnected System
(SNI for its acronym in Spanish). Section 2
is a qualitative-retrospective analysis of the
National Interconnected System Control Centre’s
structural development, considering the shift
work and the responsibilities definition. Section 3
is an analysis of the new operation challenges for
the national interconnected system, considering
its increased complexity and new technologies
in place for electrical power system operations.
Section 4 proposes a new shift work team structure
and assigns corresponding job responsibilities for
an adequate system operation that is prepared to
face future challenges.
Index Shift— Work Team Structure, National
Interconnected System Operations.
1. INTRODUCCIÓN - IMPORTANCIA DEL
EQUIPO DE OPERADORES DEL SNI Y SU
ESQUEMA DE GESTIÓN
Se entiende por Centro de Operaciones – CO
de una empresa, como la estructura organizacional
encargada de coordinar la operación de su sistema;
considera una estructura jerárquica (clara definición de
responsabilidades), el talento humano con capacidades
y competencias en el conocimiento especializado de su
sistema, con un empoderamiento formal para la toma de
decisiones en tiempo real, tanto en condiciones normales
como de emergencia.
En las instituciones proveedoras de servicios en
línea o tiempo real, el Centro de Operaciones, Centro
de Despacho, Centro de Control - CO, o como se lo
conozca, representa la instancia directa en la relación
entre la institución y el cliente final; el servicio público de
electricidad no es la excepción. El Centro de Operaciones
es el ente que debe velar por el correcto suministro del
servicio eléctrico, garantizando el cumplimiento de los
parámetros normativos de seguridad, calidad y economía,
de manera permanente, durante las 24 horas del día, los
365 días del año.
Existen varios factores clave a considerar para que estos
parámetros del servicio eléctrico se cumplan a cabalidad:
la competencia y capacidad del equipo de operadores de
turno, la tecnología disponible para supervisión y control
del sistema, y por último, la estructura del equipo definido
para la ejecución de esta gran tarea; esquema definido por
la estructuración de las responsabilidades y el número
215
preciso de profesionales para el cumplimiento cabal de
estas responsabilidades. Pues no sería lo mismo operar
el SNI con la estructura actual, que con la estructura del
esquema de turnos que se tenía en la década de los 70,
sería prácticamente imposible
Figura 1: Sala de Control CENACE
2. ANÁLISIS
RETROSPECTIVO
LA ESTRUCTURA DEL CENTRO
OPERACIONES DEL ECUADOR [1]
DE
DE
• Partamos de la década de los 70 en la cual a lo largo
y ancho del país existían subsistemas eléctricos
aislados, a cargo de las empresas eléctricas de
distribución de las ciudades respectivas, para
dotar de energía a los habitantes de las principales
ciudades del Ecuador.
• Bajo esta estructura del servicio eléctrico, la
operación del sistema se la realizaba en varios
esquemas: centros de operaciones locales, en
otros casos lo realizaban los propios operadores
de las centrales de generación, quienes de manera
manual y por la percepción de su visión, tomaban
las acciones para el seguimiento de la demanda
de energía.
• En esta década, específicamente en el año
1977, inicia la operación del Sistema Nacional
Interconectado, “con el suministro de servicio
eléctrico a la zona norte del país, sirviendo a los
sistemas de la Empresa Eléctrica Quito, INECEL
- Latacunga y Empresa Eléctrica Ambato. Esta
operación inició con el ingreso de la central
termoeléctrica de Guangopolo con 30.6 MW y
luego ingresó en 1978, la hidroeléctrica de Pucará
con 73 MW” (1). Con este hito se crea por primera
vez el Centro de Operaciones del Ecuador,
conocido como Despacho de Carga, encargado
de la supervisión y coordinación de la operación
de varios subsistemas interconectados, contaba
con un despachador, cuyo perfil académico era de
tecnólogo.
216
• Interconexión de Quito y Guayaquil. En el año
de 1980 se produce un gran hito en la historia
del servicio eléctrico ecuatoriano, se interconecta
la capital de la república (Quito) con el centro
industrial del país (Guayaquil) con un sistema
de transmisión cuyo voltaje era de 138 kV.
Bajo este contexto crecen las responsabilidades,
las necesidades de competencia para el
entendimiento correcto del comportamiento de
los fenómenos eléctricos, y el esfuerzo para la
operación del sistema de potencia; la división
de estas responsabilidades se las maneja con el
criterio de subdespacho de carga, ubicado en la
ciudad de Guayaquil.
• Cambio de voltaje en la interconexión Quito –
Guayaquil e ingreso de la Fase AB de la central
Paute. El cambio de voltaje de la interconexión
Quito – Guayaquil a 230 000 voltios (1982)
y el ingreso a operación de la fase AB de la
central Paute de 500 MW (1983), generaron
un cambio radical en la operación del Sistema
Nacional Interconectado, pues se presenta una
redistribución completa en los flujos de potencia
en todo el Sistema Nacional de Transmisión,
especialmente desde el gran nodo de generación
hacia los nodos concentradores de carga, Quito y
Guayaquil; las exigencias en competencias para la
operación del sistema aumentan. En este contexto
se define la necesidad de incluir un Operador
Ayudante al Despachador, quien se encargara
de la relación con las empresas de distribución
y de otros aspectos logísticos de la operación,
sobre la base de las disposiciones emitidas por el
tecnólogo despachador.
• Ingreso del SCADA/EMS. En 1995 ingresa
a operación el SCADA/EMS SPIDER, del
Centro de Operaciones del Sistema Nacional
Interconectado. La correcta visión de las
autoridades se orientó a cambiar la estructura de
competencias, que se requerían para el máximo
aprovechamiento de esta nueva tecnología,
pues era necesario conocimientos a nivel de
ingeniería, para el entendimiento y uso correcto
de las nuevas herramientas, de manera particular
el aprovechamiento cabal de las funciones de
aplicación.
• Bajo este contexto, el equipo de operación
de turnos del SNI, pasó a conformarse de un
ingeniero eléctrico y un tecnólogo.
• Durante la segunda mitad de la década de los 90,
para cubrir la expansión del sistema con el ingreso
de varias centrales de generación y crecimiento de
la demanda, inicia un proceso de fortalecimiento
de la estructura de turnos. El equipo de operadores
•
•
•
•
del sistema nacional interconectado cambia a tres
ingenieros, uno responsable de la Coordinación
del turno, otro ingeniero encargado del despacho
y control de la generación y un tercero encargado
de la supervisión y control de la transmisión y la
coordinación con las empresas distribuidoras.
Ingreso de la interconexión con Colombia. En el
año 2003 ingresa la interconexión con Colombia,
dos circuitos a 230 kV, con una capacidad de
250 MW de transferencia. El comportamiento
eléctrico del sistema vuelve a cambiar
radicalmente, por varios aspectos, la presencia de
fenómenos eléctricos que no se habían registrado,
la necesidad de operar el Control Automático de
generación en modo Control de Intercambio y
frecuencia – TLB, exigencia fundamental para
la coordinación de la operación internacional,
de la interconexión de los sistemas eléctricos de
potencia de Ecuador y Colombia.
En este contexto, aumentaron las responsabilidades
y exigencias de la coordinación para la operación
del sistema, se mantuvo la misma estructura
del equipo de operadores de turno: El ingeniero
Supervisor asumió la operación y despacho de
la interconexión con Colombia, mientras que
el ingeniero operador de generación asumió la
operación del Control Automático de Generación,
y el ingeniero operador de transmisión tuvo que
maximizar sus esfuerzos, para enfrentar el nuevo
comportamiento de los parámetros de calidad
del sistema, comportamiento completamente
diferente de los perfiles de voltaje y grandes
cambios en los flujos de potencia en el SNT,
debido a las modificaciones repentinas en el
despacho de la interconexión internacional.
Cabe indicar que en el año 2008 ingresó la segunda
interconexión con Colombia, completando
4 circuitos de 230 kV, que permiten una
transferencia de hasta 500 MW, incrementando
las exigencias en la coordinación internacional
de la operación interconectada, siendo la más
saliente el aparecimiento de modos de oscilación,
debido a las grandes transferencias de potencia.
En el año 2012 se implementa en el SNI el
sistema de monitoreo de área amplia – WAMS,
el cual establece un nuevo hito en la operación
de sistema eléctricos de potencia, pues ya es
posible supervisar el comportamiento dinámico
del sistema de potencia y de sus componentes,
a través de la información fasorial en tiempo
real, facilidad que anteriormente era posible
únicamente con un análisis posoperativo.
• El ingeniero operador de Transmisión es el
encargado de realizar estas actividades de
supervisión y análisis de la información fasorial.
Con esta reseña histórica se puede identificar la
evolución del esquema del equipo de turno para
la operación del SNI, y de la evolución de las
responsabilidades asignadas a los miembros de este
equipo.
Se pueden identificar cambios relevantes en las
responsabilidades del equipo de turno, teniendo una
particular característica las responsabilidades del
ingeniero operador de transmisión, pues actualmente
es el encargado de la supervisión y control del SNT,
responsable de la coordinación con las empresas de
distribución y operación de las interconexiones con los
sistemas eléctricos de estos sistemas, y responsable de la
supervisión del comportamiento dinámico del sistema y
sus componentes, a través de la información fasorial del
sistema WAMS.
Si bien esta estructura funciona a cabalidad en
condiciones normales, en condiciones de emergencia
para grandes eventos, las responsabilidades y acciones se
multiplican, haciendo insuficiente el recurso humano para
la coordinación de la operación, en todos sus aspectos.
3. NUEVOS RETOS Y REQUERIMIENTOS
En el corto y mediano plazo se tienen previstos nuevos
cambios en varios aspectos relativos a la operación del
sistema de potencia, tanto en el ámbito tecnológico,
como en la expansión del sistema.
A continuación, se presenta un breve análisis de
los futuros cambios y de su impacto previsto en el
comportamiento del sistema de potencia y en los
requerimientos para la estructura del equipo de operación
del sistema.
3.1. Expansión del sistema
•
Sistema Nacional de Transmisión a 500 kV.
Para el año 2016 se tiene previsto el ingreso, en
etapas, a operación del sistema de transmisión de
extra alto voltaje a 500 kV, para poder evacuar
la energía producida por el ingreso de la central
Coca Codo Sinclair de 1500 MW.
Como impacto en la operación del sistema, se prevé el
cambio radical del comportamiento del sistema eléctrico
y lógicamente en la operación del mismo, desde las
217
condiciones de perfil de voltaje, redistribución de flujos
de potencia, hasta los fenómenos dinámicos ante cambios
en el estado de estos elementos, tanto por operación
programada, como por eventos de falla; para este último
caso el esfuerzo operativo será totalmente exigente.
Lógicamente la operación de este nuevo sistema de
transmisión será responsabilidad del ingeniero operador
de transmisión.
• Expansión de la red de 230 kV. En el mediano
plazo, CELEC EP TRANSELECTRIC tiene
previsto el reforzamiento de ciertas zonas del
SNT, generándose en algunas zonas corredores
de transmisión en anillos a 230 kV, lo cual exigirá
un mayor esfuerzo en la supervisión y operación
del sistema.
• Ingreso de la central Coca Codo Sinclair. Para el
año 2016 se tiene previsto el ingreso a operación
comercial de la central Coca Codo Sinclair de
1500 MW.
• Se prevé el cambio completo en el
comportamiento de todo el SNI, al producirse
una redistribución de los flujos de potencia, pues
el nuevo nodo principal suministrador de energía
será esta central.
• Para este último caso el esfuerzo operativo será
totalmente exigente. El impacto en el cambio en
la matriz de responsabilidades afectará a todo el
equipo de operadores de turno, siendo evidente
el aumento en las actividades para los ingenieros
operadores de generación y transmisión.
• Impacto similar, aunque en una menor escala,
se tendrá con el ingreso de 7 nuevos proyectos
hidroeléctricos restantes.
• Integración latinoamericana. Considerando la
visión del Gobierno Central – de convertir al
Ecuador en exportador de energía eléctrica –
concomitantemente con los planes regionales
de integración eléctrica, con el ingreso de
sistemas interconectados a 500 kV, se producirá
un nuevo impacto en la matriz de actividades y
responsabilidades del equipo de operadores del
sistema, tanto en el ámbito de la supervisión y
control propiamente dicho, como en las exigencias
de coordinación, en este caso, internacional.
•
•
•
•
•
•
3.2. Avances Tecnológicos
• Sistema de Monitoreo de Red de Área Amplia –
WAMS y Operación coordinada con Colombia.
Como se mencionó en el numeral anterior, en el
2012 entró a operar el sistema para monitoreo del
sistema de potencia, a través de las mediciones
fasoriales en puntos estratégicos de este sistema;
además, en el presente año (2013) se prevé
el intercambio de información fasorial entre
218
•
los sistemas WAMS de Ecuador y Colombia,
adicional al intercambio de información de
tiempo real vigente.
Aparte del aumento ya registrado en el
esfuerzo de supervisión de esta información,
el intercambio de información con el sistema
colombiano generará exigencias adicionales en la
coordinación internacional de la operación y en la
supervisión de variables adicionales del sistema
colombiano.
Esquema de Protección Sistémica – SPS. Para
finales del año 2014 se tiene previsto el ingreso
del Esquema de Protección Sistémica para el
Sistema Nacional Interconectado ecuatoriano.
Este es un esquema inteligente, adaptativo
de actuación muy ágil, en el orden de los 200
ms luego de haberse registrado una falla, que
censa las condiciones operativas del sistema de
potencia, para la definición de una matriz de
acciones remediales, tal que al verificar el cambio
de estado de las líneas de transmisión en el anillo
troncal de 230 kV – la ocurrencia de una doble
contingencia – realiza el deslastre de carga y
generación en valores precisos, para mantener la
estabilidad del Sistema Nacional Interconectado.
Este sistema al ser dinámico en la auto - evaluación
y definición de la matriz de acciones remediales,
requiere de una supervisión permanente de todos
los parámetros y variables considerados en su
configuración.
El impacto será un aumento considerable de
actividades delicadas de supervisión de variables
en tiempo real; nuevamente responsabilidad
directa del ingeniero operador de transmisión.
Fortalecimiento en la Gestión con el usuario
Final:
Uno de los problemas registrados en la
coordinación de la operación en el SNI se ubica
en las redes de Distribución, en la realización de
maniobras para la ejecución de mantenimientos o
para el restablecimiento del sistema luego de una
falla. En estos escenarios, se han registrado varios
errores operativos que han generado problemas
en el servicio eléctrico al usuario final o que han
agravado los ya existentes: maniobras como la
energización de un parte del sistema eléctrico,
cuando aún no se ha retirado la puesta a tierra;
la verificación no oportuna de sobrecargas en el
sistema de distribución, ha producido el disparo
de elementos de dicho subsistema, generando
eventos de mayor magnitud.
Con el objeto de minimizar el riesgo de
ocurrencia de estos problemas, al menos en los
factores referidos a la coordinación directa entre
CENACE y las Distribuidoras, que pueden
afectar la operación de la zona de influencia, el
operador de transmisión, responsable directo de
la coordinación con los actores de distribución,
debería enfatizar su función en la coordinación
con los CO de distribución, se podría considerar
este apoyo en la supervisión de los sistemas de
subtransmisión de las empresas, aprovechando
la factibilidad de intercambio de información
de los sistemas de distribución hacia el EMS de
CENACE, vía ICCP.
4. PROPUESTA DE UNA ESTRUCTURA DE
RESPONSABILIDADES Y COMPETENCIAS
PARA EL EQUIPO DE OPERACIÓN DEL
SISTEMA
Con los antecedentes repasados, en el sentido que
mientras evoluciona el sistema eléctrico de potencia,
con el ingreso de más generación y de mayor tamaño,
con el aumento de la complejidad en el sistema de
transmisión, inclusive con el avance de la tecnología
aplicada a la operación y supervisión del sistema de
potencia, es necesario dotar al Centro de Operaciones
de una estructura más sólida y a los profesionales de la
operación, de mejores competencias para poder ir a la par
con este desarrollo y mitigar los riesgos que se generan
por la sobrecarga en responsabilidades asignadas.
A continuación se presenta una propuesta de la
estructura del equipo de operación de los turnos en el
CO para atender la operación del Sistema Nacional
Interconectado. La descripción de las responsabilidades
no es exhaustiva, pero se pretende evidenciar las
responsabilidades más importantes de esta misión.
•
•
•
•
•
•
•
•
•
•
Generación
•
Supervisor
Extra y
alto voltaje
Subtransmisión
Distribución
•
•
Figura 2: Propuesta Esquema de Turno
• Supervisor de Turno, Responsable de:
• La coordinación general de la operación:
que las acciones y toma de decisiones que se
generen en el Centro de Operaciones, por parte
de los ingenieros Operadores del sistema, sean
219
•
•
coherentes, óptimas y seguras; tanto en el sistema
de transmisión, sistema de subtransmisión, las
unidades generadores, la coordinación con las
empresas distribuidoras, las interconexiones
internacionales, el control de la frecuencia.
La coordinación general, con sus respectivas
contrapartes en los países interconectados, para
la ejecución de las maniobras necesarias en las
interconexiones internacionales.
La definición oportuna de las mejores estrategias
durante la operación del sistema en condiciones
de emergencia. Responsable de la orientación y
guía al equipo de operadores del sistema.
La modificación del despacho de las unidades
generadoras, en caso de requerirse.
Operador de Generación. Responsable de.
La ejecución del despacho económico o
redespacho de las unidades generadoras, a través
de la adecuada coordinación con todos los actores
generadores del sistema nacional interconectado.
Del control de la frecuencia y del intercambio
internacional, a través de la correcta operación
del Control Automático de Generación.
La operación segura de las unidades generadoras,
dentro de los parámetros definidos por cada una
de las empresas respectivas.
Operador de Transmisión e interconexiones
Internacionales. Responsable de:
La operación segura y confiable del Sistema
Nacional de Transmisión de extra alto voltaje
(500 kV) y de los subsistemas de transmisión de
230 kV.
La supervisión permanente de las variables del
sistema WAMS, identificando oportunamente
tendencias que señalen deterioro de las
condiciones de estabilidad del sistema.
La correcta operación del Sistema de Protección
Sistémica, identificando malfuncionamiento
del sistema o riesgo en la operación del mismo,
a través de los subsistemas que reflejan la
coherencia operativa del mismo; las señales y
alarmas que se identificarán en el HMI (interface
humano-máquina).
Operador de Subtransmisión y relación con las
Empresas Distribuidoras. Responsable de:
La operación segura y confiable del sistema de
Subtransmisión 138 kV.
La coordinación operativa con las diferentes
Empresas de Distribución.
El apoyo activo a los actores de distribución, en
las maniobras en su sistema de subtransmisión,
en condiciones de mantenimiento y de manera
especial en condiciones de emergencia, con
énfasis en la realización segura de las maniobras
requeridas.
REFERENCIAS BIBLIOGRÁFICAS
[1] Argüello G., Otros. (2013). “Testimonios de
Sueños y Realidades”, CENTRO NACIONAL
DE CONTROL DE ENERGÍA.
5. CONTRIBUCIONES
1.
2.
Se evidencia la necesidad de fortalecer
oportunamente la estructura del equipo de turnos
del Centro de Operaciones del Sistema Nacional
Interconectado, cuando existen cambios radicales
en la operación del mismo.
Propuesta de una estructura fortalecida del equipo
de operadores de turno para la operación del
sistema, haciendo énfasis en las responsabilidades
de cada uno de ellos, considerando los cambios
recientes y los nuevos retos que se darán en los
siguientes años.
6. CONCLUSIONES Y RECOMENDACIONES
Es necesario reforzar el esquema del equipo de
operadores de turno del SNI, considerando el ingreso
de un cuarto operador que pueda encargarse de las
responsabilidades de la supervisión y operación de los
subsistemas de subtransmisión del Sistema Nacional
Interconectado y que de manera preponderante se
encargue de una relación y coordinación estrecha y
dinámica con los centros de operación de las empresas
Distribuidoras del país.
Roberto Barba Barba.- Nació en
Quito, Ecuador, en 1968. Obtuvo
el título de Ingeniero Eléctrico en
la Escuela Politécnica Nacional del
Ecuador en 1996, recibió el grado
de Magister en Investigación
Operativa en la Escuela Politécnica
Nacional en el 2004 y el grado de
Magister en Administración de
Empresas en la Universidad
Católica del Ecuador en el año 2011. Es el Coordinador
Titular del Centro de Operaciones del CENACE.
Actualmente es el Gerente de los siguientes proyectos:
Implementación de un sistema de Monitoreo de banda
Ancha - WAMS para el Sistema Nacional Interconectado;
Implementación de un Esquema de Protección Sistémico
- SPS para la operación estable del Sistema Nacional
Interconectado.
Es necesario realizar un análisis a detalle del estado de
asignación de las responsabilidades de cada uno de los
miembros del equipo de operadores de turno del Sistema
Nacional Interconectado, para validar la conclusión
principal de este artículo.
El análisis de las responsabilidades y carga de trabajo
de los ingenieros miembros del equipo de turno para la
operación del SNI, debe realizarse en condiciones de
emergencia del sistema, condición en la que se puede
evidenciar el verdadero requerimiento del contingente
humano de operadores del sistema.
220
Responsabilidad Socio - Ambiental en Proyectos Hidroeléctricos:
El Caso Río Zamora – Santiago
P. Martínez
L. Ochoa
J. L. Espinoza
Corporación Eléctrica del Ecuador CELEC E.P., Unidad de Negocio HIDROPAUTE
Resumen— CELEC EP-HIDROPAUTE, opera las
centrales hidroeléctricas Mazar (170 MW), Molino
(1075 MW), supervisa la construcción del proyecto
Sopladora (487 MW) y administra la ejecución de
los estudios Cardenillo (593 MW) y Río ZamoraSantiago (>5500 MW prefactibilidad).
El Gobierno Nacional, a través del Ministerio
de Electricidad y Energía Renovable-MEER,
establece como política que los proyectos de
generación eléctrica deberán impulsar el
desarrollo sostenible de las comunidades vecinas,
asegurando la calidad, seguridad, gestión
ambiental y responsabilidad social.
Durante los estudios del Proyecto Hidroeléctrico
Río Zamora-Santiago (PHRZS), se identificaron
94 comunidades donde se aplicaron encuestas,
asambleas, visitas domiciliarias y entrevistas, lo
que permitió el contacto con líderes comunitarios
y la población en general para informar y recibir
sus expectativas.
La mayor expectativa que genera un proyecto
de este tipo tiene que ver con la satisfacción de
necesidades básicas insatisfechas. Se determinó
que el 42% de la población tiene como prioridad
el desarrollo de servicios básicos, entre los cuales
destaca el servicio de energía eléctrica.
La Gestión Socio-ambiental de HIDROPAUTE,
considera la implementación de proyectos de
desarrollo territorial, tales como agua potable,
alcantarillado y electrificación. Para el caso
del PHRZS se ha contemplado la ejecución de
proyectos de electrificación rural y alumbrado
público, a través de convenios con la empresa
distribuidora, CENTROSUR.
Hasta julio de 2013 se incorporan 205 nuevos
clientes, 820 beneficiarios. Se tiene previsto una
segunda etapa que incluyen 120 nuevos clientes y
alrededor de 500 beneficiarios.
Los proyectos de generación eléctrica, si bien
pueden cumplir la normativa vigente, no garantizan
un adecuado desarrollo de los territorios donde
éstos se asientan, mientras que las comunidades
exigen mejoras en su nivel de vida. Ello demanda
acciones públicas, con un enfoque intersectorial,
que trasciende la responsabilidad de “construir un
proyecto” y lleva a los promotores a involucrarse
en procesos de desarrollo a través de la prestación
de servicios básicos.
Palabras clave— Generación hidroeléctrica,
responsabilidad social, servicios básicos.
Abstract— CELEC EP-HIDROPAUTE operates
the Mazar Hydroelectric Power Plant (170 MW)
and the Molino Hydroelectric Power Plant (1,075
MW), oversees construction of the Sopladora
Project (487 MW) and manages studies for the
Cardenillo Project (593 MW) and the Rio Zamora
Santiago Project (>5,500MW pre-feasibility).
The National Government, acting through the
Ministerio de Electricidad y Energía Renovable
– MEER (The Ministry of Electricity and
Renewable Energy) has made it a policy that
electric power generation projects should
stimulate the sustainable development of
neighbouring communities, ensuring quality,
security, environmental management and social
responsibility.
During studies for the Rio Zamora-Santiago
Hydroelectric Project (PHRZS), 94 local
communities were identified and contacted
through surveys, meetings, domestic visits,
and interviews, making it possible to contact
community leaders and the population in general
to inform them about the project and understand
their expectations.
The highest expectation created by a project of
this nature involves satisfying basic unmet needs.
It was determined that 42% of the population
considers the development of basic utilities to be a
priority, and electrical power has been emphasized
in particular.
Social and Environmental Management of the
HIDROPAUTE Business Unit has planned
221
the implementation of certain development
projects, such as drinking water, sewerage, and
electrification. Where PHRZS is concerned,
the execution of rural electrification and public
lighting has been planned through agreements
reached with CENTROSUR, the energy
distribution company.
As of July 2013, 205 new clients and 820
beneficiaries have been incorporated. A second
stage is expected to follow, which will include 120
new clients and around 500 beneficiaries.
While such electric power generation projects
may very well comply with current regulations,
they do not guarantee an adequate development
of the areas where they are implemented, given
the demand of local communities to improve their
standard of life. This requires public incentive,
with a cross-sector focus, which goes beyond the
responsibility of “building a project” and leads its
developers to become involved in the development
process through the provision of basic utility
services.
Index Terms— Hydroelectric power generation,
social responsibility, basic utilities.
1. INTRODUCCIÓN
seguridad y que se rijan por criterios de inclusión y
responsabilidad social.
Por otro lado el Consejo Nacional de Electricidad
CONELEC, elaboró el Plan Nacional de Electrificación
con sustento en cuatro ejes, uno de ellos el Eje Inclusivo,
tiene como uno de sus objetivos “Armonizar el desarrollo
y operación de la infraestructura del sector eléctrico con
las expectativas de las comunidades”.
La Empresa Pública Estratégica Corporación Eléctrica
del Ecuador (CELEC EP) está a cargo de la generación y
transmisión de energía eléctrica dentro del país. Una de
sus Unidades de Negocio, CELEC EP – HIDROPAUTE,
opera las centrales hidroeléctricas Mazar (170MW),
Molino (1075MW), supervisa la construcción del
proyecto Sopladora (487MW) y administra la ejecución
de los estudios Cardenillo (593MW) y Río Zamora Santiago (>5500MW, según prefactibilidad). CELEC
EP – HIDROPAUTE paralelamente con el avance de los
estudios, la ejecución y operación de los proyectos de
generación a su cargo promueve el desarrollo sustentable
de los territorios ejecutando planes con la participación
de las diferentes autoridades, actores sociales, entidades
estatales y públicas, de tal forma que se brinde atención
a las comunidades de las áreas de influencia de sus
proyectos. En este artículo se describe como CELEC EP
contribuye a garantizar el acceso universal al servicio de
electrificación en dichas comunidades.
Una de las estrategias establecidas por el Estado
ecuatoriano para promover el desarrollo del país es el
cambio de la Matriz Eléctrica. Para ello, el Ministerio
de Electricidad y Energía Renovable – MEER, entre los
principales aspectos de su gestión, fomenta el incremento
de la participación de energías renovables y la soberanía
energética, lo cual se refleja en la construcción de 8
centrales hidroeléctricas, el primer parque eólico del
Ecuador continental; ejecución de 5 proyectos de
energías renovables para las islas Galápagos y estudios
de proyectos de generación hidroeléctrica y geotérmica.
2. POLITICAS DE GESTIÓN AMBIENTAL Y
RESPONSABILIDAD SOCIAL DE CELEC
EP-HIDROPAUTE
Con ello se proyecta, a partir del 2016, transformar
la matriz eléctrica, actualmente con un peso similar de
hidroelectricidad y termoelectricidad, a una con un aporte
de energías renovables superior al 90%, básicamente
hidroelectricidad.
Eje 1: Apoyo al Desarrollo Territorial
Para una implementación integral de todos estos
proyectos, el MEER establece como política que las
empresas promotoras de proyectos eléctricos deberán
impulsar el desarrollo sostenible de las comunidades de la
región en donde se implanten, con normas relacionadas a
sus procesos para asegurar la calidad, gestión ambiental,
CELEC EP- HIDROPAUTE consciente de la
responsabilidad de implementar procedimientos para el
cuidado del Ambiente y el desarrollo de los territorios
del área de influencia de sus proyectos, considera 4
componentes en su cadena de valor que conforman los
ejes de la Gestión Ambiental y Responsabilidad Social
de la Empresa.
Una de las estrategias fundamentales de la inversión
pública está encaminada a satisfacer la dotación de
bienes y servicios esenciales, dotación que permite
mejorar y salvaguardar las capacidades de la sociedad en
su conjunto y de los individuos que la conforman.
En el desarrollo de los proyectos hidroeléctricos a
su cargo, CELEC EP-HIDROPAUTE ha establecido
acciones encaminadas al fortalecimiento de las
comunidades del área de influencia.
222
Eje 2: Educomunicación para el Desarrollo Sostenible
Las líneas de acción establecidas son:
• Fortalecimiento a los procesos productivos
comunitarios
• Apoyo a cantones y parroquias del área de
influencia de los proyectos hidroeléctricos
• Proyectos de electrificación y alumbrado público
El objetivo de estas acciones es contribuir al desarrollo
socioeconómico de las comunidades del área de
influencia, a través de:
• Fomentar y fortalecer la organización micro
empresarial y la modernización de la producción
en el área de influencia
• Apoyar el desarrollo de tecnologías de producción
amigables con el ambiente
• Mejorar los sistemas de infraestructura sanitaria
de las comunidades
• Mejorar el acceso a los servicios básicos
Este eje busca fortalecer y diversificar las capacidades
y potencialidades individuales y sociales, y promover una
ciudadanía participativa y crítica. En coordinación con el
Ministerio de Educación, CELEC EP-HIDROPAUTE
realiza actividades encaminadas a la capacitación y
constante información de los habitantes de su área de
influencia en biodiversidad, gestión de desechos, cuidado
de recursos naturales entre otros. La interacción con
la población a través de la educomunicación permite
complementar y afianzar los proyectos de desarrollo socio
ambiental y orientar sobre el manejo de los proyectos
hidroeléctricos. Entre las principales actividades
desarrolladas se encuentran: educación ambiental,
mejoramiento del nivel de ciencias en educación,
capacitación técnica comunitaria, e implementación de
centros de información.
Para el cumplimiento de lo planteado, HIDROPAUTE
ha implementado programas con las comunidades y
organizaciones, del área de influencia de sus proyectos
hidroeléctricos. La fotografía 1 muestra una visita
desarrollada por líderes comunitarios de las comunidades
del Proyecto Hidroeléctrico Río Zamora-Santiago
para conocer los proyectos productivos desarrollados
alrededor del Proyecto Paute-Mazar
Fotografía 2: Taller “Usos de la Energía”. Escuela Albino
del Curto. Cantón Limón Indanza. Fuente: PHRZS
Fotografía 1: Visita al proyecto comunitario de truchas
Arcoiris. Proyecto Hidroeléctrico Mazar. Fuente: PHRZS
Para la ejecución de los proyectos de electrificación,
que se detallan más adelante, se han firmado convenios
de cooperación interinstitucional con la empresa eléctrica
distribuidora de energía Centro Sur, encargada de brindar
el servicio en las áreas donde se desarrollan los proyectos
hidroeléctricos.
Fotografía 3: Visita de estudiantes al Centros de
Información Cantón Limón Indanza. PHRZS. Fuente:
PHRZS
Eje 3: Manejo de la Subcuenca Hidrográfica
Encaminado a la protección de los recursos hídricos
en las áreas de influencia de los proyectos. Sus acciones
fundamentales, con la participación comunitaria, son:
223
• Revegetación y reforestación de las franjas de
amortiguamiento de los embalses y en la cuenca
hidrográfica
• Acuerdos comunitarios para el cuidado de
bosques primarios y páramos
• Apoyo en el manejo de parques nacionales
colindantes con las áreas de los proyectos
• Monitoreo y limpieza de embalses
• Investigación en recursos hídricos y cambio
climático
Como parte de la metodología para el desarrollo del
proyecto se han establecido mecanismos de comunicación
muy cercanos a la comunidad, esto con la finalidad de
informar sobre los alcances y avances del proyecto
además de solventar inquietudes y temores que surgen
alrededor de los mismos. En los trabajos de socialización
y levantamiento de información se identificaron 94
comunidades en las cuales se aplicaron:
• 565 fichas de encuesta a la población dentro del
área de influencia directa de los ríos Zamora y
Namangoza.
• 680 fichas de encuesta a la población dentro del
área de entorno inmediato (área de influencia
social).
• 130 talleres comunitarios
• Fichas de descripción comunitarias.
• Fichas de actores sociales
• Entrevistas no estructuradas
Eje 4: Sistema de Calidad Ambiental
Tiene como objetivos fundamentales: colaborar en
la implementación y mantenimiento de los Sistemas
Integrados de Gestión; implementar los procesos para el
cumplimiento de la Legislación Ecuatoriana y asesorar
y monitorear los procesos de estudios y construcción de
proyectos hidroeléctricos.
3. EL ACCESO AL SERVICIO PÚBLICO DE
ENERGIA A PARTIR DE UN PROYECTO DE
GENERACIÓN
Como se indicó anteriormente, CELEC EP
HIDROPAUTE tiene a cargo el Proyecto Hidroeléctrico
Río Zamora-Santiago, que se encuentra en etapa de
estudios. El proyecto está ubicado en la provincia de
Morona Santiago, que cuenta con el 63,9% de viviendas
con servicio de energía eléctrica.
Figura 1: Mapa de ubicación del Proyecto Hidroeléctrico
Río Zamora – Santiago. Fuente: PHRZS
La aplicación de las diferentes estrategias nombradas
y su complemento con información secundaria permitió
realizar un diagnóstico de la situación social y económica
del área de estudio.
3.1. Expectativas comunitarias frente al Proyecto
Hidroeléctrico
El proceso de levantamiento de información y
socialización del proyecto permitió el contacto con
líderes comunitarios, la realización de asambleas, visitas
domiciliarias, reuniones con organizaciones, etc., donde
se informa a la comunidad y también se reciben sus
expectativas locales de desarrollo y sus inquietudes y
comentarios, entre los que se destaca aquel de que “el
proyecto es bueno para el país pero la electricidad y los
servicios no llegan a sus comunidades”.
Tal y como lo expresa el eje inclusivo del Plan Nacional
de Electrificación es necesario “Armonizar el desarrollo
y operación de la infraestructura del sector eléctrico
con las expectativas de las comunidades”. Se ha creído
muy enriquecedor poder compartir algunas expresiones
textuales de los habitantes del área del proyecto y un
resumen de sus expectativas principales alrededor del
mismo.
224
Esta información es relevante para responder a la
pregunta de por qué una empresa generadora debía
involucrarse en la electrificación de las comunidades
del área de influencia de sus proyectos: al igual que
con otros proyectos de servicios básicos (agua potable,
alcantarillado, etc.) el acceso al servicio de electrificación
rural es un derecho reclamado durante años por los
habitantes de la zona quienes ven a los desarrolladores de
proyectos eléctricos como los llamados a satisfacer esa
demanda, sin importar si tienen la competencia legal para
hacerlo. El no involucrarse en este aspecto puede poner
en riesgo las relaciones con la comunidad y, por ende, el
éxito mismo del proyecto de generación.
Del trabajo de socialización en 70 de las 94
comunidades del área de influencia se ha obtenido una
priorización de las principales necesidades expuestas
que solicitan sean atendidas durante el desarrollo del
proyecto. La Fig. 2 muestra en porcentajes la priorización
de expectativas realizada por las comunidades.
Necesidades priorizadas
por las comunidades
Servicios básicos
3%º
Atención en salud
10%
Crédito
6%
42%
11%
1%
10%
Infraestuctura
Capacitación
Empleo
Comercialización
17%
Asesoramiento
Agrícola
Figura 2: Priorización de necesidades comunitarias.
Fuente: PHRZS
Se muestra que el 42% de las comunidades tiene como
prioridad el desarrollo de servicios básicos, entre los
cuales está el servicio de energía eléctrica.
Fotografía 4: Taller de socialización del Proyecto
Hidroeléctrico Río Zamora-Santiago. Cantón San Juan Bosco.
Fuente: PHRZS
3.2. La Electrificación Rural desde la Gestión
Socio-Ambiental.
Una de las estrategias fundamentales de la inversión
pública está encaminada a satisfacer la dotación de
bienes y servicios esenciales, como es el caso de la
electricidad, dotación que permite mejorar y salvaguardar
las capacidades de la sociedad en su conjunto y de los
individuos que la conforman.
Los proyectos de generación eléctrica, con sus
respectivos planes de manejo y medidas compensatorias,
ejecutados de forma aislada, si bien pueden cumplir
con la normativa vigente no garantizan un adecuado
desarrollo de los territorios donde se asientan dichos
proyectos. Lo paradójico es que las comunidades
exigen a los promotores de proyectos mejoras en su
nivel de vida. Ello demanda acciones públicas, con un
enfoque intersectorial y de derechos, que trasciende
la responsabilidad de “construir un proyecto” y lleva a
los promotores a involucrarse en procesos de desarrollo
a través de la prestación de servicios integrales e
integrados. Las intervenciones coordinadas y respetando
el ámbito de competencias, pueden ser realizadas en las
diferentes etapas de estudio, construcción y operación de
los proyectos.
225
Dentro del Eje 1 de Gestión Ambiental de CELEC
EP HIDROPAUTE “Apoyo al Desarrollo Territorial”
se considera la implementación de proyectos de
desarrollo comunitario como aquellos relacionados a la
electrificación. Para el caso del Proyecto Hidroeléctrico
Río Zamora-Santiago se ha contemplado la ejecución
de proyectos de electrificación rural dentro de su área
de influencia, a través de la firma de convenios de
cooperación entre CELEC EP y la empresa distribuidora
de energía, Empresa Eléctrica Regional CENTROSUR.
En una primera etapa se contemplaron 8 proyectos de
alumbrado público y 12 proyectos de electrificación
rural, brindando servicio a 17 comunidades. Se debe
indicar que para la selección de los proyectos a ser
ejecutados se involucró a los representantes de los
Gobiernos Autónomos Descentralizados y aun cuando
los proyectos superaron los límites de financiamiento1 ,
se los consideró viables debido a la necesidad de cubrir
un déficit histórico en las comunidades que deben contar
con el servicio de energía eléctrica. El siguiente gráfico
muestra, en síntesis, los pasos para la construcción de los
proyectos de electrificación rural:
Levantamiento de línea base (situación
actual) de comunidades de área de
influencia. Expectativas comunitarias.
Fotografía 5: Iluminación de cancha deportiva de Santiago
de Panantza. Cantón San Juan Bosco. Fuente: PHRZS
Fotografía 6 :Usuario de proyecto de electrificación.
Parroquia Bomboa. Cantón San Juan Bosco. Fuente: PHRZS
Revisión conjunta con empresa
eléctrica distribuidora de las mejores
condiciones técnicas para servicio
eléctrico (Red Eléctrica o Panel Solar)
La Tabla 1 muestra las comunidades atendidas con los
proyectos de electrificación en la provincia de Morona
Santiago:
Priorización de obras con Gobiernos
Autonomos
Descentralizados.
Priorización con líderes comunitarios.
Selección de proyectos.
Tabla 1:Lista de Proyectos de electrificación PHRZS
Convenio de cooperación y ejecución
con Empresa Eléctrica Distribuidora.
Cumplimiento de requisitos legales.
Asignación de recursos CELECCENTROSUR
Recepción de obra y puesta a
servicio de la comunidad.
Los 20 proyectos ejecutados hasta julio de 2013
incorporan 205 nuevos clientes, 820 beneficiarios en
total. Se tiene previsto además una segunda etapa donde
se estiman 120 clientes y 500 beneficiarios.
1 De conformidad con los criterios vigentes para la selección de proyectos
FERUM
226
REFERENCIAS BIBLIOGRÁFICAS
4. CONCLUSIONES Y RECOMENDACIONES
Hoy en día en el Ecuador, los proyectos de generación
eléctrica, en cualquiera de sus etapas (estudios,
construcción u operación) no pueden ser ejecutados de
forma aislada, cumpliendo únicamente la normativa
vigente, sin considerar la interacción con los territorios
donde se asientan dichos proyectos. Las comunidades
involucradas demandan mejoras en su nivel de vida lo
cual lleva a los promotores de los proyectos a involucrarse
en los procesos de desarrollo territorial por medio de
intervenciones directas o coordinadas, respetando el
ámbito de competencias institucionales.
Es importante para una empresa de generación,
contar con una estructura definida y un equipo técnico
suficiente que haga frente a las demandas comunitarias,
respondiendo a una política de responsabilidad socioambiental claramente establecida. En el caso de CELEC
EP – HIDROPAUTE y su proyecto Río Zamora
-Santiago, queda claro que la responsabilidad socioambiental de la Empresa se vio abocada a responder a
una demanda específica: el acceso de la comunidad al
servicio de electrificación. La atención oportuna de esta
demanda, que es a su vez un derecho de la población,
no solo que mejora las relaciones con la comunidad
sino además permite desarrollar el proyecto principal
en un ambiente de mayor confianza, incrementando su
posibilidad de éxito del proyecto.
Así, a la pregunta de por qué una empresa generadora
debería involucrarse en la electrificación de las
comunidades del área de influencia de sus proyectos,
a pesar de no ser su competencia, se podría responder
con lo siguiente: al igual que con otros servicios básicos
(agua potable o alcantarillado) el acceso al servicio de
electrificación a más de una necesidad es un derecho de
las personas, y son las comunidades quienes tienen el
poder de legitimar (o no) al proyecto en desarrollo, en
la medida que dicho proyecto aporte a satisfacer esas
necesidades.
[1] Constitución de la República del Ecuador.
[2] Plan Nacional del Buen Vivir 2009-2013.
[3] CONELEC (2010) Plan
Electrificación 2009-2020.
Maestro
de
[4] Albornoz, E., (2012) Presentación MEER. Visión
del Sector Eléctrico Ecuatoriano.
[5] Guzmán, P. y Espinoza, J.L. (2010), Gestión
Socio-Ambiental en el Proyecto Mazar, Revista
Interconexiones, Diciembre, No. 75 Año XX: 5053.
México.
Luis Alberto Ochoa Pesantez (1976)
es ingeniero eléctrico graduado en la
Universidad de Cuenca y posee una
Maestría en Administración de
Empresas de la Universidad del
Azuay Ecuador y un Diplomado en
Gestión
de
Proyectos
Gubernamentales de la UNAM
Ha trabajado como profesor en la Facultad de
Ingeniería Eléctrica en la Universidad Politécnica
Salesiana, ingeniero de la Dirección de Planificación de
la Empresa Eléctrica CENTROSUR, coordinador del
Proyecto Hidroeléctrico Minas- Jubones (300 MW),
Director de Gestión Técnica Corporación Eléctrica
del Ecuador CELEC S.A, 2010-2012, subgerente de
Planificación y Procesos de la Unidad de Negocio
HIDROPAUTE – CELEC EP y actualmente Director
Proyecto Hidroeléctrico Río Zamora-Santiago.
Ha realizado investigación para la optimización en
diferentes aspectos de los Sistemas Eléctricos de Potencia.
Expositor investigador en “Seminarios de Distribución y
Comercialización de Energía Eléctrica”, organizados por
la ECUACIER
227
Paul Esteban Martinez Mosquera
(1972) es ingeniero eléctrico
graduado en la Universidad de
Cuenca y posee una Maestría en
Gestión Tecnológica y un Diplomado
en Auditorías Ambientales.
Ha trabajado como Gerente del
Proyecto Unidades Educativas del
Milenio del Ministerio de Educación, Director Ejecutivo
de la Unidad Educativa CEDFI, Gerente de Electrónica
Control y Sistemas Cía. Ltda.
Además, ha trabajado como consultor técnico en el
sector privado. Actualmente trabaja como Especialista
Ambiental de la Unidad de Gestión Ambiental de
HIDROPAUTE, Proyecto Hidroeléctrico Río ZamoraSantiago.
Juan Leonardo Espinoza, (1967) es
ingeniero eléctrico graduado en la
Universidad de Cuenca, tiene una
Maestría en Energía y Ambiente del
Programa de la Universidad de
Calgary y la OLADE. Obtuvo su Ph.
D. en la Universidad de Calgary,
Canadá, con doble especialidad en
Desarrollo Sustentable/Gestión Ambiental y Estrategia.
Del 2005 al 2009, trabajó en el Municipio de Cuenca
como Director de la Comisión de Gestión Ambiental. En
el 2009 fue Subsecretario de Energía Renovable y desde
el 2010 laboró en CELEC EP – HIDROPAUTE, donde
ocupó el cargo de Gerente de febrero 2011 a junio de
2013.
Ha dictado cursos, principalmente de postgrado, sobre
Energía, Gestión Ambiental y Estrategia en la OLADE,
Universidad de Calgary y en diferentes universidades
nacionales. Sus publicaciones y trabajos de investigación
han sido presentados en eventos académicos en varios
países. Actualmente, es profesor principal en la Facultad
de Ingeniería de la Universidad de Cuenca.
228
Revista Técnica “energía” se despliega en un
entorno global, patrocina la investigación y fomenta
el intercambio de ideas encaminadas al beneficio y
desarrollo del Sector Eléctrico, trata sobre avances
científicos y tecnológicos, así como, experiencias
de alto nivel en Sistemas Eléctricos de Potencia,
Mercados Eléctricos y en las Interconexiones
Internacionales de Electricidad.
La revista cumple una década y marca un hito
importante en la publicación sobre el desarrollo
técnico, no solo del Sector Eléctrico, sino del país.
En las 10 ediciones de la revista se han recopilado
182 trabajos técnicos sobre investigaciones y
desarrollos tecnológicos de interés institucional y
trascendencia a nivel del Sector Eléctrico. En las tres
primeras ediciones, los autores participantes fueron
únicamente funcionarios de CENACE; a partir de
la cuarta edición se invitó a personas relacionadas
con el Sector Eléctrico; y a partir de el año 2008 se
premiaron a los mejores trabajos de cada edición.
El presente anexo contiene una recopilación de
aquellos trabajos galardonados en las ediciones
anteriores, y constituye una conmemoración por el
décimo aniversario de la revista. Estos trabajos no
forman parte de la edición N° 10.
2008
PRONÓSTICO DE DEMANDA PARA SISTEMAS DE SUMINISTRO DE ENERGÍA
ELÉCTRICA UTILIZANDO ALGORITMOS EVOLUTIVOS Y RAZONAMIENTO
INDUCTIVO FUZZY – DESARROLLO DE LA PLATAFORMA GRÁFICA MERLYN
Víctor Hinojosa
Investigación y Desarrollo
Wladimir Llanos
ESPE
En efecto, el pronóstico de demanda es fundamental
para:
RESUMEN
En este trabajo se muestra el problema del
Pronóstico de Demanda que es necesario para
la Planificación de la Operación de corto plazo
(horizonte semanal y diario) y muy corto plazo
(horizonte diario) en los Sistemas de Suministro de
Energía Eléctrica (SSEE).
Los modelos y algoritmos desarrollados consideran
las incertidumbres asociadas, principalmente a
variables climáticas como la temperatura, debido a la
correlación que tiene en el corto plazo con la demanda
de un Sistema Eléctrico.
Los principales puntos que se resuelven en
este trabajo: 1. Consideración de un modelo de
pronóstico no lineal, basado en Inteligencia Artificial,
2. Planteamiento de un Modelo Multivariable
sin necesidad de complejas modelaciones, 3.
Obtención de un Modelo Único de Pronóstico
válido para distintos horizontes de pronóstico; y, 4.
Determinación óptima de las entradas al Modelo de
Pronóstico.
PALABRAS CLAVE: Pronóstico, Series de Tiempo,
Correlación,
Razonamiento
Inductivo
Fuzzy,
Algoritmos Evolutivos.
1.
INTRODUCCIÓN
El pronóstico de demanda hoy en día es una de
las tareas más importantes en lo que respecta
a responsabilidad y complejidad en Sistemas
de Suministro de Energía Eléctrica (SSEE), ya
que las sobrestimaciones de la demanda real
ocasionan sobrecostos en el despacho económico
y las subestimaciones provocan imprevisiones de
la Reserva Rotante (Regulación Secundaria de
Frecuencia) que pueden ocasionar problemas de
estabilidad en el caso de contingencias.
El problema del Pronóstico de Demanda que es
necesario para la Planificación de la Operación de
mediano, corto y muy corto plazo se desarrolla en
detalle en esta publicación.
230
71
1)
Calcular los balances eléctricos y energéticos.
2)
Planificar la programación y ejecución de la
operación.
3)
Elaborar los planes de expansión, inversiones y
reemplazos.
4)
Estimar las transacciones de compra y venta de
energía y servicios.
5)
Presupuestar los ingresos y egresos por dichas
transacciones.
6)
Calcular el margen de pérdidas y ganancias
esperado por el agente.
Por tales razones, es muy importante que el pronóstico
de demanda minimice todas las incertidumbres,
considerando los dramáticos cambios estructurales
que se están presentando en los Mercados Eléctricos
y la introducción de competencia entre actores como
resultado de la desregulación normativa, donde
entran en juego intereses económicos que pueden ser
afectados por la ineficiencia del pronóstico, por lo que
los Agentes y el propio Operador del Sistema deben
trabajar con el mayor nivel de eficiencia posible.
La demanda eléctrica, al ser una función no lineal de
las variables intervinientes, hace que el pronóstico
de demanda sea básicamente un problema no lineal.
En el corto plazo las condiciones meteorológicas
(temperatura, velocidad del viento, humedad, etc.)
causan variación en la demanda. Además se debe
incluir otras variables exógenas como: tipo de día
(laboral o fin de semana), estación del año, día
feriado, hora etc., para disminuir la varianza del
pronóstico, ya que la demanda presenta zonas de
bajo consumo (poca actividad asociada a las horas:
de la noche, de un día feriado o fines de semana),
zonas de consumo muy pronunciado (zonas de mucha
actividad simultánea de diferentes sectores) y zonas
intermedias.
La organización de la publicación se presenta de la
siguiente manera: en la segunda sección se muestra
el Estado del Arte, en la tercera sección se discute
la descripción del problema, en la cuarta sección se
presenta el desarrollo de la plataforma gráfica. Los
resultados y las distintas comparaciones matemáticas
se dan en la quinta sección, el resumen final y las
conclusiones del trabajo se enuncian en la sección
sexta y en la última sección se detallan los respectivos
agradecimientos.
2.
MARCO TEÓRICO Y ESTADO DEL ARTE [4]
El razonamiento humano ha sido entendido como
un proceso mental de simulación debido a que los
humanos somos capaces de tomar decisiones aún
sin tener el conocimiento total del fenómeno sólo
reconociendo los patrones pudiendo así analizar el
comportamiento del sistema.
2.1.
Razonamiento Inductivo Fuzzy – FIR
La metodología Fuzzy Inference Reasoning (FIR) es
una implementación de la metodología de análisis
general de sistemas “General System Problem
Solver (GSPS)”, que posibilita estudiar los modos
conceptuales de comportamiento de sistemas
dinámicos.
Fue reimplementada por F. Cellier de la Universidad
de Arizona. Mediciones Fuzzy fueron añadidas
a la metodología de modelación para tratar las
incertidumbres de los límites, donde también se incluye
el tratamiento de valores perdidos y las mediciones
para estimar la predicción del error.
Fuzzyficación (Fuzzy Recoding)
El objetivo de este proceso es aumentar drásticamente
la velocidad de optimización. Si tenemos una relación
entre n entradas y una salida, en lugar de realizar
la búsqueda en el espacio continuo n-dimensional
para encontrar el óptimo patrón de entrada/salida, la
búsqueda es limitada al espacio discreto c-dimensional
de los valores clase.
Este proceso convierte los datos cuantitativos que
describen el comportamiento del sistema (series
temporales: demanda y temperatura y variables
auxiliares: tipo de día, etc.) a una trayectoria triple
cualitativa.
El primer elemento de la variable triple se llama “valor
clase” (class value) y representa una discretización
gruesa de los valores originales de la variable.
El segundo elemento se llama “valor de membresía
fuzzy” (fuzzy membership value) y denota el nivel de
confianza expresado en el valor clase elegido para
representar un particular valor cualitativo.
El tercer elemento se llama “valor del flanco” (side
value), el cual indica si el valor cuantitativo está a la
derecha o a la izquierda del valor pico de la función
de membresía fuzzy asociada.
El valor del flanco que es particular de la metodología
FIR (no es comúnmente utilizado en la lógica
fuzzy), es responsable de preservar el completo
conocimiento del valor original cuantitativo.
Modelación Cualitativa (Qualitative Modeling)
En la Figura 1 se muestran las cuatro etapas de la
metodología.
FIR
ModelaciónCualitativa
Entradas del
Sistema
Salidas del
Sistema
Matrizde
datos
Cuantitativos
delsistema
Pronóstico
Cuantitativo
delsistema
Fuzzyficación
Defuzzyficación
Regeneración
Datos
Cualitativos
(triples)
Pronóstico
Cualitativo
(triples)
Identificacióndela
máscaraóptima
Máscaraóptima
La modelación cualitativa tiene como objetivo identificar
los patrones (espaciales y temporales) en el tiempo,
mediante la determinación del grupo de variables
de entrada que mejor explican el comportamiento
entrada – salida. Tal relación es llamada máscara de
correlación (mask).
En la metodología de pronóstico se utilizó para
encontrar las entradas del modelo (máscara de
correlación) los algoritmos evolutivos “Simulated
Rebounding Algorithm”, como se detalla en el
ítem 2.2.
Obtencióndela
“Rulebase”
Pronóstico Fuzzy
SimulaciónCualitativa
FIGURA 1: Razonamiento Inductivo Fuzzy
Simulación Cualitativa (Qualitative Simulation)
Es importante notar que el razonamiento propiamente
dicho no involucra las etapas de fuzzyficación y
defuzzyficación, pero son esenciales para que la
metodología FIR opere en un entorno mixto (cualitativo/
cuantitativo) de modelación y simulación.
El objetivo de esta etapa es analizar y aprender
patrones observados en la máscara de correlación
con el fin de predecir el comportamiento futuro en
base a los datos históricos.
72
231
El pronóstico opera en dos etapas:
1) Etapa determinística: el patrón de entrada para
el pronóstico es extraído de la matriz de valores
clase por medio de la máscara y es comparado
con todos los patrones análogos de la matriz de
comportamiento del sistema (datos históricos). Para
todos aquellos patrones que coinciden con el patrón
de entrada, se observan los valores clase de salida.
2) Etapa estadística: se realiza la predicción del
valor más probable de salida, a partir de las
observaciones anteriores, mediante un promedio
ponderado de los valores más próximos en la
base de datos de entrenamiento. En esta etapa
se utiliza la regla 4-NN (4 más cercanos vecinos).
Defuzzyficación (Regeneration)
En esta etapa las predicciones de los valores de
membresía, funciones flanco y clase de la salida
promedio son convertidas a predicciones cuantitativas
usando la operación inversa a la fuzzyficación.
2.2.
Algoritmos Evolutivos – SRA
Para encontrar las entradas al modelo de pronóstico
se consideró la aplicación del algoritmo Simulated
Rebounding Algorithm (SRA), que pertenece a la clase
de algoritmos estocásticos (randomization algorithms)
basados en búsqueda local aleatoria controlada
(como lo es, entre otros, el Simulated Annealing). El
SRA ha sido contrastado con el Simulated Annealing
y algunas implementaciones de Algoritmos Genéticos
en problemas de optimización con similares
características y debido a la alta performance del
mismo es que se eligió como motor de optimización
del desarrollo aquí planteado.
rebotes inelásticos, la pelota choca con distintos
puntos de la superficie, desviada por los mismos
rebotes sobre una superficie no plana. Si la superficie
posee “valles” y “lomas”, los puntos pertenecientes
a un valle tendrán menor energía potencial que
las lomas. Por la acción de la gravedad, la pelota
buscará detenerse sobre algún valle, y dependiendo
de la energía cinética que posea, será capaz de
saltar montes para explorar nuevos valles.
La analogía con un problema de optimización
combinatorial se realiza haciendo una equivalencia
entre la superficie de rebotes y el espacio de soluciones,
y entre la altura de cada punto de la superficie y el valor
de la función de costo correspondiente a esa solución.
El SRA resulta así una extrapolación multidimensional
del proceso físico de rebotes. Debido a la acción de
la gravedad y a la pérdida gradual de energía cinética
y potencial debido a las colisiones, al final del proceso
de rebotes simulados, la pelota se detiene sobre el
mínimo global (punto de menor altura de la superficie)
o sobre algún mínimo local cercano al global. La Figura
2 muestra por simplicidad un ejemplo unidimensional:
como se muestra con las líneas de trayectoria, la
pelota puede alcanzar el mínimo global (escalón 11)
si es lanzada desde el punto A ó C; sin embargo, es
atrapada en el mínimo local del escalón 14 si la pelota
es lanzada desde el punto B.
Es decir, el mínimo global es alcanzado si la energía
potencial inicial (Eo), y el porcentaje de pérdida de
energía debido a colisiones inelásticas (α) permiten
saltar todos los mínimos locales durante el proceso
de rebotes.
Eo
C
B
A
17
1
La Simulación del Proceso Físico de Rebotes
Simulados
Suponiendo que se lanza una pelota con coeficiente
de elasticidad cercano a 1 sobre una superficie S, la
pelota caerá sobre la superficie debido a la acción
del campo gravitatorio en el cual esta inmersa. El
choque producido por la caída podrá afectar a
la energía cinética de la pelota si parte de esta
energía es disipada en deformaciones permanentes
(choque inelástico). Estas deformaciones serán
proporcionales a la energía cinética del choque,
siendo ésta la equivalente a la diferencia de energía
potencial desde el punto de choque hasta la altura
desde la cual cae la pelota. Si el proceso no es
detenido, los rebotes se detendrán cuando la energía
cinética de la pelota sea cero. En este proceso de
14
11
FIGURA 2: Ejemplo Unidimensional de Rebotes Simulados
En el SRA las deformaciones producidas por las
colisiones pueden ser de tres tipos:
a) Deformación transitoria, es decir, que la pelota
no pierde energía cinética por ser la altura de la
caída pequeña.
b) Deformación leve, cuando la pelota rebota
sobre las paredes de un valle por ser su energía
73
232
potencial menor que la altura del punto de destino,
disminuyendo su energía potencial en un valor
pequeño.
c) Deformación permanente, cuando la pelota
pierde energía cinética debido a una colisión
provocada por una altura considerable de caída.
Estos tipos de deformación actúan en el proceso de
optimización de diferente manera. La deformación
transitoria es la que permite explorar el espacio
de búsqueda. Si sólo existiera este tipo de
deformaciones, el proceso no se detendría nunca,
si no fuera por la pérdida de energía provocada por
fricción y rozamiento. La deformación leve disminuye
la energía de la pelota cuando es atrapada en un
valle, y provoca la detención del proceso si no existe
ninguna solución con energía potencial menor que
la de la pelota (valle profundo). La deformación
permanente acelera la convergencia hacia el
óptimo, ya que disminuye la energía potencial de
la pelota cuando ésta es muy superior a la de la
superficie en el entorno de rebotes.
3.
4.
DESARROLLO DE
GRÁFICA – MERLYN
LA
PLATAFORMA
En el estado del arte de la Inteligencia Artificial se
menciona que los sistemas híbridos que combinan
lógica fuzzy, redes neuronales, algoritmos genéticos
y sistemas expertos proporcionan los métodos
más eficientes para resolver una gran variedad de
problemas.
En la Figura 3 se muestra la pantalla principal de la
aplicación desarrollada en Visual C.
DESCRIPCIÓN DEL PROBLEMA
La demanda que se considera para el análisis es la
generación bruta del SSEE del Ecuador. Además, se
utiliza solamente la temperatura máxima de la Costa,
debido a la correlación encontrada en investigaciones
anteriores [4].
En este sistema se registran los valores de demanda
horarios, incluyéndose el dato de las 19:30, ya que
a esta hora aproximadamente se produce el pico
máximo de demanda, por lo tanto se consideran 25
períodos (23 horarios y 2 de media hora).
FIGURA 3: Pantalla Principal de la Interfaz MERLYN
4.1.
Cargar Datos de Demanda
Primeramente, se debe cargar el archivo (base de
datos.xls) donde está la base de datos histórica de
la demanda, este archivo cuenta con datos históricos
desde el 01 de enero de 2006 hasta las 24:00 del
sábado 18 de agosto de 2007. En la Figura 4 se
muestra este procedimiento.
En la Tabla 1 se muestra la estructura del sistema
multivariable para el pronóstico de demanda.
TABLA 1: Sistema Multivariable para el Pronóstico
TIPO DE DÍA
T_max costa
DEMANDA
day (t-n)
TM_Gye (t-n)
load (t-n)
day (t-n-1)
TM_Gye (t-n-1)
load (t-n-1)
…
…
…
day (t-1)
TM_Gye (t-1)
load (t-1)
day (t)
TM_Gye (t)
load (t)
FIGURA 4: Pantalla para Cargar la Base de Datos
El análisis que se va a mostrar en la siguiente sección
corresponde al procedimiento del pronóstico semanal,
pudiendo realizar actualizaciones diarias y horarias al
pronóstico.
Ahora, se debe cargar el archivo plano (RGDSM19.09)
el cual es generado por el Área Centro de Operaciones,
este archivo contiene los datos de demanda real hasta
74
233
las 09:00 del domingo 19 de agosto. En la Figura 5 se
muestra el procedimiento.
Finalmente, se obtiene las últimas 20 semanas
de datos reales (3 500 datos), en investigaciones
anteriores se ha demostrado la eficiencia en tiempo
y precisión de esta ventana dinámica.
4.2.
Análisis de Clases para la Demanda
Para que el algoritmo de pronóstico, basado en
la metodología FIR & SRA, pueda ejecutarse se
necesita conocer los valores de demanda para cada
período (pico, media, valle y resto).
Para estimar estos valores de demanda se utiliza
un algoritmo de Clustering llamado Fuzzy C-Means
[1], el cual ha obtenido resultados confiables y
precisos.
FIGURA 5: Pantalla para Cargar el Archivo Diario (Plano)
Finalmente, para terminar con el proceso de obtención
de los datos de demanda, se ha desarrollado un
algoritmo para validar los últimos datos reales de
demanda (nueve horas del domingo 19 de agosto) – se
supone que los datos de demanda están previamente
validados hasta el día sábado 18 de agosto. Se
muestra estos datos utilizando una tabla de Excel con
su respectivo gráfico.
Como resultados de esta etapa, se obtiene los
valores reales de cada período de demanda,
considerando que de lunes a viernes se tiene 4
clases (pico, media, valle y resto), el sábado se
tiene 3 clases (pico, media y valle) y el domingo se
tiene 2 clases (pico y valle).
En la Figura 7 se visualiza la aplicación del algoritmo,
para las 20 semanas de datos consideradas
anteriormente.
En la interfaz se muestran los datos reales del mismo
día para las 3 semanas anteriores (12 de agosto, 05
de agosto y 29 de julio) y la respectiva media muestral
de estos 3 días. En la Figura 6 se muestra el algoritmo
de validación de la demanda.
FIGURA 6: Algoritmo de Validación de Datos
El dato erróneo se lo corrige utilizando el valor
medio de la demanda del mismo día de las 3
semanas anteriores (1 339,5 MW) ó en el caso
de una desconexión se puede ingresar el valor
desconectado de demanda. Una vez que se ha
validado los nuevos datos se procede a guardar la
nueva base de datos (tiene 9 datos reales más que
la base de datos anterior).
75
234
FIGURA 7: Análisis de los Períodos de Demanda
4.3.
Algoritmo de Entrenamiento Supervisado
Basado en el Algoritmo SRA
El método de entrenamiento que se propone aplicar
es el “Aprendizaje Supervisado”, utilizando como valor
de referencia los datos horarios de la demanda de la
última semana de entrenamiento. Para encontrar
las entradas del modelo de pronóstico, tal que esta
configuración minimice la sumatoria de los errores
obtenidos en la última semana de entrenamiento,
se utiliza - para el cálculo del error - el pronóstico de
demanda para 1 hora en adelanto1 y la demanda real
histórica para dicha hora.
El análisis del espacio de soluciones se realiza mediante
la minimización de la función de evaluación o “función
objetivo”, que es igual al promedio de los últimos 175
errores relativos del pronóstico horario respecto del
valor real histórico de la demanda para la semana de
entrenamiento, según lo expresa la ecuación (1).
175
Error (v) E( t ) ˆ
¥ D
t
¤ ¦¦
i 1
§
i
Dreal ,t
Dreal ,t
i
i
´
µ
µ
¶ *100 [%]
(1)
Este entrenamiento es repetido cada semana, ya
que se considera que las entradas halladas por el
algoritmo son válidas para 1 semana. Por lo tanto, el
algoritmo nuevamente deberá ser repetido a las 09:00
del domingo 26 de agosto de 2007.
4.4.
Pronóstico de Demanda Utilizando la
Metodología FIR
i) La Dirección de Planeamiento del CENACE debe
realizar la Programación de la Operación de
Mediano y Corto plazo (de 24 horas hasta 168
horas en adelanto), para lo cual requiere:
•
Pronóstico de demanda con 1 semana de adelanto,
es decir necesita el pronóstico de demanda con
168 horas de adelanto (mediano plazo): para la
Programación Semanal.
•
Pronóstico de demanda con 24 horas de adelanto:
para la Programación Diaria.
En la Figura 9 se muestra el pronóstico semanal.
175
Donde:
Dt
=
Dreal,t =
Es el pronóstico para la hora t.
Es la demanda histórica real de la hora t
durante la última semana de los datos de
entrenamiento.
En la Figura 8 se muestra la ejecución del algoritmo de
entrenamiento. Una vez que el entrenamiento terminó
(8,82 min), se debe cargar las entradas óptimas del
modelo de pronóstico que se obtuvieron.
FIGURA 9: Menú para Pronóstico Semanal, Diario y Horario
El pronóstico de demanda se lo guarda también
en un archivo de texto (stlf_result.txt), con lo que la
Dirección de Planeamiento podría utilizar estos datos
para realizar la Programación Semanal.
Para el pronóstico diario (un día de adelanto), se
utilizaría los 25 datos de demanda del lunes 20 de
agosto (stlf_result.txt), datos que servirán como
entrada para el Despacho Económico.
El modelo desarrollado tiene la ventaja de incorporar
los últimos datos reales del sistema para analizar
FIGURA 8: Menú para Entrenamiento Supervisado
1
“1 hora de adelanto” significa que se asumen conocidos todos los datos para
las horas anteriores a la pronosticada. “1 día de adelanto” significa que se
pronostican 24 horas para t+i (i=0,..,23), considerando conocidos (reales)
76
235
todos los datos para las horas t-j (j>0) y tomando los valores pronosticados
ya calculados entre la hora t y t+i-1.
la nueva tendencia de la demanda con respecto al
pronóstico semanal.
Para el pronóstico de demanda del martes, se debería
incorporar los datos reales de demanda del domingo
19 y los 9 datos reales de demanda del lunes 20 de
agosto).
En la Figura 10 se muestra el pronóstico de demanda
para el martes 21 de agosto, no es necesario realizar
el Clustering de la demanda, y con las mismas
entradas obtenidas en el entrenamiento anterior
(se considera que estas entradas son válidas para
pronosticar desde las 10:00 del domingo 19 de
agosto hasta las 23:00 del domingo 26 de agosto)
se realiza el pronóstico.
FIGURA 11: Aplicación al Pronóstico de Muy Corto Plazo
Para realizar este pronóstico hace falta solo cargar la
base de datos (base de datos.xls y el RGDS19.09  se
debe proceder a validar los 16 valores de demanda de
este archivo, correspondientes desde las 10:00 hasta
las 24:00) y no es necesario realizar el Clustering de
la demanda.
5.
ANÁLISIS DE RESULTADOS
Se utiliza el error relativo porcentual definido en
la ecuación (2), para comparar el performance del
modelo de pronóstico.
Error x _ real
x _ pronosticada
*100
x _ real
(2)
Donde:
FIGURA 10: Aplicación al Pronóstico para 1 Día de Adelanto
x = Representa el valor de demanda horario.
ii) La Dirección de Operaciones del CENACE debe
realizar la Programación de la Operación de Muy
Corto Plazo (de 1 a 24 horas de adelanto), para lo
cual requiere:
•
Pronóstico de demanda desde 1 a varias horas en
adelanto.
Los 16 datos de iniciales, correspondientes al
domingo 19 de agosto (ver Figura 9) los podría
utilizar el Área Centro de Operaciones. Datos que
servirán para analizar la tendencia de demanda
desde las 10:00 hasta las 24:00.
En la Tabla 2 se detallan la media y la desviación
estándar del error de test, considerando 3 semanas
de test simuladas (del 11 al 24 de septiembre de
2000 y del 08 al 14 de mayo de 2006), resultantes
de la aplicación de la Metodología FIR & SRA [4] y
su comparación con los resultados obtenidos con el
método ARIMA (CENACE), modelo Neuro – Fuzzy
[2] y con las Redes Recurrentes de Jordan (RR) [3].
Se muestra además el error máximo obtenido en el
pronóstico con cada uno de los Métodos de Pronóstico
antes mencionados.
El modelo desarrollado tiene la ventaja de
incorporar los últimos datos reales del sistema,
por lo tanto, se podría incorporar los datos reales
hora a hora y obtener una estimación de la curva
de demanda hasta finalizar el día. En la Figura
11 se muestra el pronóstico de demanda cuando
se ha cargado los valores reales de demanda del
domingo 19 de agosto.
77
236
TABLA 2: Media, Desviación Estándar y Máximo Error
Obtenido con Distintos Métodos de Pronóstico.
Análisis de Errores Período 1
MÉTODO DE
PRONÓSTICO
MEDIA
DESVIACIÓN
E_max
ARIMA
1,5873
1,2617
8,0298
RR - JORDAN
1,4729
1,2064
7,1311
ANFIS
1,4364
1,1817
6,992|
FIR & SRA
1,1672
1,0633
6,3374
Se realizaron pruebas on-line del pronóstico entre los
resultados obtenidos por la DPL con el método ARIMA
y el pronóstico que obtuvo ID con la metodología FIR
& SRA considerando como período de prueba desde
el 02 de enero hasta el 24 de enero de 2007, en la
Tabla 3 se detalla la media del error.
•
Esta modelación Cualitativa – Cuantitativa posee
la ventaja de poder incluir n variables explicativas,
sin necesidad de una modelación compleja,
debido a la formulación multivariable inherente al
Razonamiento Inductivo Fuzzy.
•
Frente a la limitación que presentan las
metodologías tradicionalmente usadas en series
de tiempo, las cuales encuentran mediante la
función de autocorrelación parcial un grupo de
entradas que son validas para un determinado
período de tiempo (por ejemplo una estación
del año), la nueva metodología aquí propuesta
realiza un proceso dinámico de selección de
entradas del modelo, que posibilita realizar un
seguimiento a la tendencia de la demanda en
forma instantánea.
•
La intervención del Planificador u Operador es
mínima, ya que los parámetros necesarios del
modelo son intuitivos y optimizados por la misma
metodología.
•
Tanto los modelos como los algoritmos
desarrollados
han
sido
validados
exhaustivamente con datos provenientes de la
demanda real del SSEE del Ecuador.
•
Este desarrollo poseen un potencial de
aplicación que excede en gran medida el ámbito
del Pronóstico de Demanda y son por tanto
aplicables a otros problemas de la Planificación
y Operación de sistemas de potencia como por
ejemplo el Pronóstico de Caudales.
TABLA 3: Análisis de Errores Período 2
MÉTODO DE
PRONÓSTICO
MEDIA
ARIMA
2,2
FIR & SRA
2,2
Por pedido de la DEJ considerando la importancia
del mantenimiento de la fase AB de la Central Paute
(5 x 105 MW), se realizó el pronóstico de demanda
para la semana desde el 17 al 23 de febrero de 2007.
En la Tabla 4 se detalla la media del error.
TABLA 4: Análisis de Errores Período 3
MÉTODO DE
PRONÓSTICO
MEDIA
ARIMA
1,9545
FIR & SRA
1,4696
La mejor performance, con respecto al Pronóstico
de Demanda para un día en adelanto, se obtiene
con la metodología FIR & SRA, con respecto a los
otros métodos de pronóstico, reduciendo el error del
pronóstico en un 17%, respecto a la Metodología de
Referencia (ARIMA).
7.
Se ha demostrado también que esta metodología
tiene un excelente performance para el pronóstico de
demanda de muy corto plazo (de 1 hasta 24 horas en
adelanto).
6.
•
CONCLUSIONES
Se ha resuelto el Pronóstico de Demanda con
un horizonte de hasta 1 semana en adelanto
(para la Programación Semanal) incluyendo la
actualización diaria mediante la incorporación de
nueva información relacionada con las variables
explicativas de “demanda” (para la Programación
Diaria). El modelo planteado presenta la ventaja de
utilizar información real del sistema eléctrico de los
últimos períodos horarios de demanda y poder así
estimar el comportamiento de la nueva tendencia
de la demanda, disminuyendo así las desviaciones
de la demanda real con respecto a la demanda
pronosticada (subestimación o sobreestimación).
[1]
BIBLIOGRAFÍA
BEZDEK J. C.; Fuzzy Mathematics in Pattern
Classification, Tesis doctoral, Centro de
Matemáticas Aplicadas, Universidad de Cornell,
1973.
[2] HINOJOSA V.; Pronóstico de Demanda de
Corto Plazo en Sistemas de Suministro
de Energía Eléctrica utilizando ANFIS, III
Congreso Internacional de la Región Andina,
Quito, 2007.
[3] HINOJOSA V.; Pronóstico de Demanda de Corto
Plazo en Sistemas de Suministro de Energía
Eléctrica utilizando Redes Recurrentes (Jordan),
XI ERIAC, Paraguay, 2005.
[4] HINOJOSA V.; Pronóstico de Demanda de
Corto Plazo en Sistemas de Suministro de
Energía Eléctrica utilizando Inteligencia
Artificial, Tesis de doctorado, Instituto de
Energía Eléctrica de la Universidad Nacional
de San Juan, Argentina, 2007.
78
237
Víctor Hinojosa Mateus.Nació en Quito, Ecuador en
1975.
Recibió su título de
Ingeniero Eléctrico en la Escuela
Politécnica Nacional en el 2000.
Desde enero del 2000 hasta
julio del 2001 se desempeñó
como Ingeniero de Operación y
Transmisión en el CENACE.
En el período agosto 2001 a julio 2005 realizó estudios
de doctorado en el Instituto de Energía Eléctrica de
la Universidad Nacional de San Juan en la República
Argentina, a través de una beca otorgada por el
Servicio Alemán de Intercambio Académico (DAAD).
Actualmente, se desempeña como Investigador en el
Área de Investigación y Desarrollo del CENACE y es
profesor en la EPN. Sus principales áreas de interés
están enmarcadas en la Operación y Planificación de
Sistemas Eléctricos de Potencia utilizando Técnicas
de Inteligencia Artificial.
Wladimir
Llanos
Tapia.Nació en Cuenca, Ecuador
en 1983.
Es egresado de
la Carrera de Ingeniería de
Sistemas e Informática en la
Escuela Politécnica del Ejército.
Actualmente realiza su tesis de
grado en el Área de Investigación
y Desarrollo del CENACE.
Sus principales áreas de interés están enmarcadas
en la Operación y Planificación de Sistemas
Eléctricos de Potencia utilizando Técnicas de
Inteligencia Artificial.
79
238
2009
PAGO DE POTENCIA A TRAVÉS DE OPCIONES
PERSPECTIVAS DE APLICACIÓN AL MERCADO ELÉCTRICO DEL ECUADOR
José Oscullo L.
Corporación CENTRO NACIONAL DE CONTROL DE ENERGÍA -CENACEResumen.- En la actualidad los mercados de energía
eléctrica pasan por una profunda reestructuración;
especialmente en la creación de instrumentos para
agilitar las transacciones y reducir el riesgo comercial
entre los diferentes agentes del mercado eléctrico. El
riesgo comercial, aparece debido a la disponibilidad de las
unidades del sistema eléctrico para el caso de las centrales
hidroeléctricas es el caudal de los ríos que poseen una
elevada aleatoriedad.
En las primeras etapas de la reestructuración todos
los esfuerzos se han centrado en resolver los problemas
particulares de cada mercado; de esa manera tender a la
creación de mercados suficientemente líquidos y con una
adecuada estructura competitiva, todo ello encaminado a
garantizar que la oferta de energía se adecue a la demanda
en todo momento, más las señales económicas para la oferta
de generación; debe buscar ser estables y con mecanismos
claros y transparentes para todos los agentes lo que
permita la instalación de capacidad de potencia disponible
en el sistema y con ello sea sustentable el sistema de una
manera técnica, política como económicamente. Dichas
características la presentan los mercados financieros
específicamente las opciones.
Para poder enfrentar estos inconvenientes presentes
en el mercado, resulta útil analizar a otros mercados con
características similares; el presente trabajo realiza el
estudio del mercado de opciones para la remuneración de
potencia aplicado al sector eléctrico y la aplicabilidad de
esta metodología en Ecuador.
Palabras Claves.- Mercado Eléctrico, Opciones, Pago de
Potencia
1. El Sector Eléctrico Ecuatoriano
El sector eléctrico ecuatoriano para el año 2007 está
constituido en su fase de generación por 14 empresas
generadoras (privadas o públicas o mixtas) que
abastecen el 90.4% de la demanda nacional anual y el
9.6% se encuentra conformado por la generación de las
empresas de distribución, autoproductores y generación
no convencional. Las empresas de generación operan
centrales hidroeléctricas mayoritariamente y térmicas;
la transmisión lo realiza la empresa de transmisión
TRANSELECTRIC cuyo propietario es el estado por
medio del Fondo de Solidaridad, la distribución de
energía eléctrica se realiza por medio de 18 empresas
que poseen la respectiva concesión para suministrar el
servicio.
El sistema eléctrico ecuatoriano posee una capacidad
instalada a diciembre de 2007 de 3751 MW de los cuales
2022 MW son de generación hidráulica. En el año 2007
se presentó en promedio 710.3 MW-mes indisponibles,
el cual representa un aumento del 3.27% respecto a la
indisponibilidad del año anterior.
La demanda máxima de potencia del año 2007
alcanzó el valor de 2706.3 MW. La energía en los puntos
de entrega de consumo fue de 14665.85 GWh que fue
abastecida por la producción de generación 14356.8
GWh, de los cuales 860.87 GWh provienen de las
interconexiones eléctricas de Colombia.
La estructura de la demanda es la siguiente: un
45.91% se presenta en el ámbito de concesión de la
Empresa Eléctrica Quito (20.65%) y de la Corporación
para la Administración Temporal Eléctrica de Guayaquil
–CATEG- (25.26%), distribuidoras encargadas del
suministro a las ciudades de Quito y Guayaquil, el
54.09% representa a 17 empresas de distribución y 85
Grandes consumidores.
A partir del 10 de octubre de 1996 debido a la
publicación de la ley del Régimen del Sector Eléctrico del
Ecuador-LRSE- el estado realizó la reestructuración del
sector eléctrico, el cual establece las reglas económicas
para la interacción entre los diferentes componentes de la
industria eléctrica: generación, transmisión, distribución
y grandes consumidores y crea el mercado eléctrico
mayorista y norma sus funciones y estructura.
En todos los países la reestructuración en mayor o
menor grado cuenta con la participación privada y el
gobierno como regulador y controlador para permitir el
normal desenvolvimiento del mercado. En la Figura 1 se
muestra la estructura de las instituciones creadas para la
conformación del mercado eléctrico.
239
contratos y con ello ser parte del reparto de los ingresos
e incentivos; característica de cualquier modelo
competitivo.
PRESIDENCIA DE LA REPUBLICA
Regulador
Comité de Ejecución
de Políticas del Sector
Eléctrico CEPSE
Ministerio de
Electricidad y
Energías Alternativas
Ministerio de
Economía y
Finanzas
Subsecretaria de
Electrificación
Formulación de
Políticas
MEM
Participación del Estado
(Fondo Solidaridad)
Lo indicado anteriormente crea un mercado de
potencia, por medio de la adopción de un procedimiento
periódico llevado adelante por el ente regulador , él
cual deberá convocar a una subasta donde los agentes
compitan para vender opciones estandarizadas en base
al precio de la energía.
Coordinación
Empresas de Generación
(70% Fondo Solidaridad)
Empresas de Transmisión
(100% Fondo Solidaridad)
Empresas de Distribución y
Comercialización
(60% Fondo Solidaridad)
CENACE
Administrador
Técnico-Comercial
Grandes Consumidores
FIGURA 1: Estructura y funciones del Mercado Eléctrico
Mayorista Ecuatoriano –MEM-Fuente: CONELEC
Los generadores participantes en el mercado Eléctrico
Mayorista -MEM- pueden negociar dos productos
energía y potencia regidas cada una por una normativa
particular.
El mercado de potencia está determinado por medio
del artículo 48 LRSE y el RSFMEM , donde se definen
de forma explícita los conceptos de potencia que son
remunerados por parte del MEM y mediante regulación
se detalla la metodología de cálculo de la magnitud
de potencia a ser remunerada a cada generador; los
conceptos que considera la normatividad son:
•
Potencia Remunerable Puesta a DisposiciónPRPD-.
•
Reserva para Regulación Secundaria de
Frecuencia.
•
Reserva Adicional de Potencia.
De los instrumentos financieros las opciones se
definen por una cantidad contratada (en MW), un precio
de ejercicio de la opción “strike price” y una cierta
cantidad de dinero que se denomina prima de la opción.
A cambio de recibir dicha prima, el agente que vende
la opción, se compromete a compensar al consumidor
cada vez que el precio de mercado supere el precio de
ejercicio de la opción, por medio de la diferencia entre el
precio del mercado y el precio de ejercicio.
El procedimiento para la implantación del mercado
de potencia a través de opciones contempla los siguientes
pasos:
La potencia reconocida a cada generador para el
caso del estudio representa la PRPD, se valora al precio
unitario de potencia –PUP- cuyo valor es determinado
por el CONELEC, corresponde al costo unitario mensual
de capital más costos fijos de operación y mantenimiento
de la unidad generadora más económica que puede
suministrar generación en la demanda máxima en
condiciones hidrológicas secas; siendo de 5.7 $/kW mes.
2. Mercado de Opciones para el Pago de Potencia
El mercado de opciones, entrega al mercado la
responsabilidad de definir el valor a pagar por la potencia,
sin una participación activa de los consumidores, debido
a los problemas que se detallaron, sino a través del
operador del sistema el cual contrataría a nombre de la
demanda una cierta cantidad de potencia determinada
por él. Con lo que la competencia por acceder a los
240
•
Cada período de tiempo, el regulador determina
el nivel de potencia que requiere el sistema, la
cantidad de opciones a adquirir a nombre de la
demanda convocando una subasta para cubrirla.
•
Las unidades de generación realizan ofertas en
precio y cantidad. Donde el precio corresponde a
la mínima prima que desean obtener y la cantidad
es la potencia (MW) que desean adquirir en
forma de opciones.
•
Cada unidad de generación puede realizar varias
ofertas, de acuerdo al número de bloques de
potencia (MW) hasta alcanzar su capacidad
disponible.
•
Las ofertas se ordenan desde la de menor a
la de mayor precio; esto permite ordenar las
ofertas más convenientes para cubrir el nivel de
demanda que requiere el sistema, estos bloques
de potencia son aceptados y los que quedan sobre
la demanda constituyen las ofertas rechazadas.
•
La potencia asignada a cada generador depende
de las ofertas aceptadas en la subasta.
•
La prima marginal unitaria a recibir por cada
generador, es igual a la oferta más cara aceptada.
•
El precio de ejercicio de la opción es determinado
por el regulador y anunciado a todos los
participantes de la subasta para que lo consideren
en la oferta.
•
Para períodos similares se asignara opciones al
mismo tiempo y precio siempre y cuando se trate
de una demanda semejante.
•
Los ingresos de cada generador se obtienen de la
multiplicación de la prima marginal unitaria con
la cantidad MW aceptada en la subasta.
•
Los generadores aceptados en la subasta
se comprometen con los consumidores a
compensarlos por la diferencia positiva de la
relación precio de mercado - precio de ejercicio.
Con lo que los consumidores se cubren respecto
a precios altos en el mercado.
•
Los cobros y pagos se liquidan de manera
análoga que en una bolsa de valores; es
decir; el cobro de la prima y el pago de las
compensaciones son simultáneos a fin de evitar
distorsiones financieras.
La figura 2 ilustra el mercado de potencia propuesto.
R e g u la d o r
Demanda
Máxima
Y
TIEMPO
Para la formación de las ofertas se considera los
siguientes pasos:
Paso 1: Generación despachada y horas críticas del
sistema
La generación despachada considerando la
declaración de mantenimientos de los agentes y la curva
de pronóstico de la demanda realizada por el regulador
por medio del modelo, se ordena por mes y serie para
cada generador. Las horas críticas son aquellas horas en
las que el costo marginal del sistema es mayor que el
precio de ejercicio que por lo general está situación es
cuando en la simulación aparece racionamiento.
Paso 2: Generación mínima mensual
De acuerdo al ordenamiento de cada generador se
selecciona la generación mínima mensual en MWh.
Paso 3: Potencia mínima mensual.
La energía mínima obtenida en el paso 2, se transforma
a potencia media (MW), debido al ser energía mínima
son potencias mínimas.
Mercado de
Potencia
Operador del
MEM
Ofertas de Plantas Hidráulicas.
Paso 4: Ordenación ascendente de potencias
C o m is ió n
p a ra
Generadores
La potencia mínima de cada serie se ordenan de
manera creciente; la potencia mínima de las mínimas es
la más firme.
S U B AS TA
Paso 5: Cálculo de la prima para cada potencia mínima
C o m is ió n
p a ra
Para cada potencia mínima de cada serie se obtiene la
prima por medio de la ecuación 1
S U B AS TA
COBRO S - PAGOS
k −1
H
1
Prima
[ Pk (CENS − s ) +
( Pk − Pi ) * pen] (1)
k =
Pk
NS i =1
zz
∑
FIGURA 2: Diagrama del Mercado de Opciones Propuesto.
Fuente: Elaboración Propia.
Donde:
3. Algoritmo Propuesto
Las ofertas de los generadores hidráulicos, se basa en
la obtención de un escenario que considera 100 series; a
través del modelo aprobado y acordado por los agentes
y el regulador, el cual debe permitir representar las
características y restricciones del sistema hidrotérmico;
siendo el programa SDDP® apto para modelar este tipo
de sistemas; para el cual los agentes deben declarar la
disponibilidad, tasa de indisponibilidad histórica o la
tasa de salida forzada FOR, mantenimientos de equipos,
previsión de caudales y observaciones relevantes de la
operación de las unidades, para el período de análisis.
241
H = No. de horas críticas
CENS = precio de racionamiento (US $ / MWh)
s = precio de ejercicio
NS = No. de series del modelo
pen = rubro de penalización
Pk = potencia mínima de la serie k (MW)
Pi = potencia mínima de la serie i ≠ k
a principios del mes de enero del año de simulación.
Paso 6: Cálculo de la prima de cada bloque de
potencia.
Por medio de la ecuación 2 se determina la prima para
cada bloque de potencia.
[ Prima k * Pk − Prima k −1 * Pk −1 ]
Prima
_ bloque j =
(2)
(Pk − Pk -1 )
Ofertas de Plantas Térmicas.
La formación de la ofertas requiere determinar la
potencia a ofertar, la cual depende de la estrategia del
agente; una vez determina las horas críticas para el
horizonte del análisis se aplica la ecuación 3.
H
Prima = [ P(CENS − s ) + (1 − IH ) * P * pen]
(3)
P
4. Resultados
Los resultados que se presentan, para el caso de los
generadores hidráulicos se utilizó el escenario obtenido
en el programa SDDP para el año 2006 y las tasas de
salida forzada de los generadores térmicos obtenida en
base a la estadística operativa del CENACE.
La prima marginal corresponde a la última prima
captada en la subasta, esta deberá ser utilizada para
determinar los ingresos por potencia de los generadores
durante el período de estudio.
A continuación se explica la determinación de los
parámetros claves que el regulador debe colocar a
disposición de los agentes:
•
Donde:
P = potencia a ofertar
IH = índice de disponibilidad histórica (%)
La fórmula tiene sentido para cada unidad térmica.
Las ofertas de los generadores térmicos e hidráulicos
en precio (primas calculadas) y potencia obtenidas de
acuerdo a lo indicado, ingresa a la subasta organizada
por una entidad designada por el ente regulador cuyos
resultados deben ser públicos.
Estas ofertas se ordenan de menor a mayor, hasta
cubrir la demanda determinada por la entidad reguladora.
La entidad que lleve adelante la subasta debe colocar a
disposición para información de los agentes algunos
parámetros claves como son: demanda, precio de
ejercicio, precio de racionamiento, penalización y otros
que considere necesarios.
Estos resultados deben ser públicos y enviados
a todos los agentes del mercado eléctrico; así los
generadores hidráulicos pueden obtener su oferta en
base a este escenario; mientras que los generadores
térmicos conjuntamente con los datos proporcionados
por el regulador y la tasa de salida forzada pueden
realizar su oferta.
Un posible cronograma para realizar la declaración
de la oferta puede ser: en octubre del año anterior
realizar la declaración de los parámetros de cada agente
para obtener las simulaciones y su procesamiento en el
mes de noviembre, en el mes de diciembre análisis y
observaciones por parte de los agentes y su publicación
Costo de la Energía no Servida (CENS)
Al no existir un valor oficial para CENS; más en la
práctica, para los estudios se utiliza un valor levemente
superior al mayor costo variable de la unidad del sistema
que para el caso del estudio corresponde a la unidad
Monay 6 de la empresa Elecaustro cuyo costo variable
es de 107.6 US $/MWh; así el costo de la energía no
servida para el modelo de pago de potencia por medio
de opciones es de 110 US $/MWh.
•
Penalización
Para la estimación de este parámetro se analizo si los
generadores son existentes ó nuevos, debido a que esta
situación determina el nivel de firmeza de la energía de
una cierta oferta para presentar precios competitivos. La
modelación de la aversión al riesgo de los generadores se
considera para el caso de estudio como la relación entre
los precios altos en función de la firmeza de los bloques
está última depende de la indisponibilidad del generador
en los períodos en los que el precio de ejercicio supere
al precio del mercado de energía, valor que se puede
traducir en probabilidad.
Generador nuevo:
•
PUP ó costo de inversión 5.7 US $/kW-mes
•
Indisponibilidad (□) para el caso de bloques
nuevos de potencia en valores estándares es del 8%.
•
La cantidad de dinero a recuperar del mercado
de potencia en el horizonte de la subasta que de
acuerdo a la propuesta constituye un año:
242
$
5.7
* 12 meses * 1año
(4)
kWmes
•
La penalización considera las horas críticas que de
acuerdo al precio de ejercicio y la simulación del
sistema por medio del SDDP; se obtiene que son
0.5 meses (365.3 horas al mes):
horas
730
* 0.5meses * Er * pen * 8%
(5)
mes
Para el caso del generador nuevo se considera que la
aversión al riesgo (Er.) es igual a 1.
Generador existente
de 2006 y fue de 1’926.973, 06 kW; mientras que la
demanda mínima se presentó en el mes de julio de 2006
siendo de 1’397.145.03 kW.
Esta información colocada en el programa MPO®
desarrollado en EXCEL® constituye los datos de ingreso
al modelo conjuntamente con las ofertas realizadas por
los generadores térmicos.
A continuación en la figura 4 se muestra la pantalla
de manejo de los módulos de creación de las curvas de
oferta de los generadores; así como la obtención de la
subasta.
No existe el costo de inversión y el ingreso es:
730
(6)
* 0.5meses * Er * pen * λj
Mediante las ecuaciones 4, 5 y 6 se obtiene la
siguiente curva para definir la penalización como se
indica en la figura 3, la cual indica una probabilidad
de indisponibilidad del 42.5%; esto se traduce en una
penalización de 105 US $/kW.
2 1 0 .0
1 9 0 .0
PEN [$/MWh]
1 7 0 .0
1 5 0 .0
1 3 0 .0
1 1 0 .0
9 0 .0
7 0 .0
8 .0
1 5 .0
1 7 .5
2 0 .0
2 2 .5
2 5 .0
2 7 .5
3 0 .0
3 2 .5
3 5 .0
3 7 .5
4 0 .0
4 2 .5
4 5 .0
4 7 .5
5 0 .0
_ [% ]
FIGURA 3: Penalización en función de la indisponibilidad.
Fuente: Elaboración propia
•
Precio de ejercicio
No existe un procedimiento riguroso, sino que el
regulador debe ajustarlo a la realidad de cada mercado.
A un precio muy bajo haría que las opciones se ejerzan
a cada momento; el precio debe buscar ingresar a las
unidades más eficientes en costos. Para el caso del
estudio se considero 70 US $/MWh.
FIGURA 4: Pantalla de Inicio del Modelo
•
Caso demanda máxima
Considerando la demanda máxima se obtiene la
prima marginal que es de 5.3 US $/kW-mes, inferior al
pagado por el método actual en 0.4 US $/kW-mes. La
figura 5, muestra la potencia y los ingresos por el pago
de potencia por el método propuesto y el método actual,
observándose una tendencia similar en casi todas las
tecnologías a excepción de la generación hidráulica de
embalse, siendo esta la más afectada; más es necesario
considerar que este tipo de generación tiene asociada
su producción al caudal afluente (variable hidrológica
altamente estocástica) lo que hace que sólo pueda
comprometer su energía firme, a través del método de
pago de opciones.
700.000,00
600.000,00
PAGO ACTUAL
PAGO OPCIONES
500.000,00
400.000,00
kW
horas
mes
300.000,00
kW
200.000,00
100.000,00
Demanda
0,00
EMBALSE
PASADA
VAPOR
GAS
DIESEL
GAS
DIESEL
(a)
La determinación de la potencia a abastecer
depende del regulador, el cual debe sustentarse en la
mejor estimación sobre el crecimiento de la demanda
basándose en la estadística y políticas de crecimiento del
país.
Para el caso del estudio, a fin de poder comparar los
pagos de potencia con el método propuesto y el actual;
la demanda máxima ocurrió en el mes de diciembre
243
3.500.000,00
3.000.000,00
PAGO ACTUAL
PAGO OPCIONES
2.500.000,00
USD$
•
2.000.000,00
1.500.000,00
USD $
1.000.000,00
500.000,00
0,00
EMBALSE
PASADA
VAPOR
(b)
FIGURA 5: Ingresos por el Pago de Potencia de acuerdo a la
tecnología de generación.
manejo de las unidades a través del pago que el mercado
debe garantizar.
700.000,00
600.000,00
PAGO ACTUAL
PAGO OPCIONES
500.000,00
400.000,00
kW
Así las empresas que poseen unidades de generación
térmicas poseen mayores ingresos que las de generación
hidráulica debido a que no pueden comprometer más
allá de su energía firme. A pesar de el valor de pago
de potencia para el caso de opciones es inferior los
generadores presentan ingresos muy similares, como se
observa en la figura 6.
300.000,00
kW
200.000,00
100.000,00
0,00
EMBALSE
PASADA
VAPOR
GAS
DIESEL
GAS
DIESEL
(a)
3.500.000,00
3.000.000,00
PAGO ACTUAL
PAGO OPCIONES
USD$
2.500.000,00
2.000.000,00
1.500.000,00
USD $
1.000.000,00
500.000,00
0,00
EMBALSE
PASADA
VAPOR
(b)
FIGURA 7: Ingresos por el Pago de Potencia de acuerdo a la
tecnología de generación.
FIGURA 6: Ingresos por el Pago de Potencia por Empresa de
Generación.
•
Caso demanda mínima
Considerando la demanda mínima se obtiene la prima
marginal que es de 4.73 US $/kW-mes, valor diferente
al pago actual que es de 5.7 US $/kW-mes. La figura 7
indica la potencia y los ingresos de los agentes por los
dos métodos de pago de potencia para cada tecnología;
como en el caso anterior se observa la distribución de
la asignación de potencia hacia las unidades térmicas lo
cual demuestra que en el mercado está tecnología es la
que permite sustentar el abastecimiento de la demanda
de los consumidores.
Mediante la figura 8, se puede observar la asignación
de potencia y de ingresos para cada agente; así
para el caso de los agentes hidráulicos solo pueden
comprometer su energía firme a pesar de que en el caso
de pago de potencia por medio de opciones el precio US
$/kW-mes es menor presentan ingresos muy similares
a los actuales, mientras que los agentes con unidades
térmicas si poseen potencia y no esta comprometida en
mantenimientos o restricciones adicionales el método
propuesto permite obtener ingresos superiores a pesar de
ser inferior el pago debido al valor de la prima; es decir,
los generadores comprometen su disponibilidad y buen
FIGURA 8: Ingresos por el Pago de Potencia por Empresa de
Generación.
5. CONCLUSIONES
Dadas las características de un sistema hidrotérmico
cuyos precios son extremadamente volátiles, se
evidencia la necesidad de proporcionar instrumentos a
los distintos participantes que les permitan cubrirse de
los riesgos propios de este negocio, ya que si el mercado
fuese ideal el mismo sería capaz de generar incentivos
necesarios para el ingreso de nuevos generadores;
más se ha observado en la realidad que se tiende a la
subinversión; así, el pago de potencia constituye uno de
los incentivos el cual debe ser claro y transparente para
244
todos los agentes del mercado.
El objetivo principal del pago de potencia es realizar
el pago mediante el reconocimiento de la disponibilidad
efectiva de cada generador al momento de abastecer la
demanda del sistema.
El mercado de opciones libera al regulador de la
responsabilidad de la determinación y distribución del
pago de potencia; a cambio, deja al mercado a través
de la competencia entre generadores colocar el valor y
precio de la potencia, todo ello por medio de una subasta,
con parámetros que son entendidos por todos los agentes
del mercado y bajo reglas claras y transparentes.
y la demanda a diferencia del método actual que a
cualquier requerimiento del mercado el precio de la
potencia es fijo. Así como también se llega a reconocer
la importancia en el abastecimiento de la demanda del
sistema de las unidades térmicas por lo que se asigna
primeramente bloques de potencia más seguros y
luego los bloques que sean menos seguros debido, por
ejemplo, a las condiciones hidrológicas o situaciones
externas.
6. BIBLIOGRAFÍA
Para la aplicación eficiente de este modelo de
comercialización, se debe disponer de una institución
administradora del mercado, que establezca los
procedimientos para liquidación correcta de estos
pagos y el requerimiento del registro de información
apropiada, para la determinación y distribución del pago
de potencia.
Las opciones aplicadas al pago de potencia en
mercados eléctricos se constituyen en una herramienta
efectiva, que permite al regulador trasmitir señales claras
de inversión con una intervención mínima de éste sin
perder en el ejercicio su función primordial de controlar
el mercado a fin de que los cobros y obligaciones
adquiridas en la operación del mercado lleguen a los
agentes que correspondan, tal como se observó en la
transferencia de ingresos entre generadores hidráulicos
de embalse y los generadores térmicos a un precio del
producto (potencia), debido principalmente a que este
tipo de generadores ofertan bloques de potencia más
competitivos debido a que el resto de capacidad esta
asociada al riesgo de las cuencas hidrológicas.
Mediante las simulaciones se pudo observar que los
parámetros críticos que debe fijar el regulador o el ente
encargado por éste para la implementación de la subasta
son: la demanda, el precio de ejercicio de la opción,
penalización y costo de la energía no suministrada,
variables que afectan directamente la cantidad que el
mercado requiere, los costos y los ingresos que reciben
los oferentes de éste mercado.
La ventaja del mercado de potencia por medio de
opciones permite variar el valor que se paga por la
potencia de acuerdo a las condiciones del mercado
en búsqueda de alcanzar el equilibrio entre la oferta
245
[1] Oscullo José, Pago de Potencia a través
de opciones: Perspectivas de aplicación al
mercado eléctrico del Ecuador
Ecuador, Tesis Maestría UASB, 2008.
[2] Silva, E “Formação de Preços em Mercados de
Energia Eletrica”. 1 ed, Sagra Luzatto, 2001.
[3] Oscullo José, Um Modelo de Pre-Despacho
com Gerenciamiento de Congestionamiento
no Sistema de Transmisão, Tesis de Maestria
UNICAMP, 2002, pp 85-90.
[4] Hull, J Options, Futures and other Derivatives,
Prentice Hall, 1997.
[5] Curso: Regulación del Sector Eléctrico,
Universidad de Comillas, Madrid, 2005.
[6] Expertos en Mercados –XM-, Información
operativa y administrativa del mercado
eléctrico colombiano http://www.xm.com.org
[7] Corporación Centro Nacional de Control de
Energía-CENACE-, información operativa
y administrativa del mercado eléctrico
ecuatoriano http:// www.cenace.org.ec
[8] Consejo Nacional de Electrificación –
CONELEC- Información general y normativa
del mercado eléctrico ecuatoriano http://www.
conelec.gov.ec
[9] Altamiras Carlos, “Pago por Capacidad vía
Opciones Financieras”, Tesis de Maestría
PUCCH, Chile, 2002.
[10] ALCOGEN “Estudio Cargo por Capacidad en
Colombia”, Madrid, 2000.
7. CURRICULUM VITAE
Oscullo L. José.- Nació en
Sangolquí, Ecuador, en 1971.
Recibió su título de ingeniero
eléctrico en la Escuela Politécnica
Nacional en 1996, Master en
ingeniería eléctrica de la
Universidad Estatal de Campinas,
Sao Paulo en 2002 y Magister en
Dirección de Empresas de la Universidad Andina Simón
Bolívar Sede Ecuador en 2008.
Actualmente se desempeña como ingeniero de
Planeamiento del CENACE y director y co-director de
tesis de pregrado y posgrado de la EPN. Su campo de
investigación se encuentra relacionado a la aplicación
de sistemas expertos y financieros en SEP; así como
análisis técnico, económico y financiero de expansión
de sistemas eléctricos.
246
2010
Unidades de Medición Fasorial - PMU
G. J. Araque
R. Barba
Corporación Centro Nacional de Control de Energía - CENACE
Resumen-- Debido a que las líneas de
transmisión cada vez se encuentran trabajando
cerca de sus capacidades máximas por lo que
un incremento en la diferencia angular entre los
dos puntos de las líneas de transmisión podría
generar problemas de inestabilidad en el Sistema
Eléctrico de Potencia.
Tratar de supervisar – en tiempo real – los
ángulos relativos de fase de todas las tensiones e
intensidades de la red en el pasado no era posible
debido a la falta de capacidad de procesamiento
y a las grandes dificultades propias de la
recolección, coordinación y sincronización de los
datos de la red, pero las nuevas tecnologías han
dado un vuelco radical a esta situación.
Las nuevas tecnologías de mediciones conlleva
al uso de Unidades de Medición Fasorial
conocidos comúnmente como PMU que mediante
la aplicación de una tecnología generalizada
en el campo de los satélites ofrece nuevas
posibilidades para la supervisión, protección,
análisis y control de los sistemas eléctricos de
potencia.
Actualmente en el Centro de Control del
CENACE para poder realizar supervisión
de la diferencia angular entre dos puntos del
Sistema Nacional Interconectado - SNI se
lo puede realizar solamente mediante el uso
del estimador de estado que calcula el valor
estimado del ángulo de los diferentes puntos
del SNI mostrando los resultados en forma
tabular, debido a que el sistema de mediciones
que se dispone actualmente en el SNI no permite
realizar una supervisión del ángulo en los
diferentes puntos de SNI en tiempo – real, es por
ello que mediante el uso de nuevas tecnologías de
medición se dispondría una medición en tiempo
– real de los fasores de los diferentes puntos del
SNI y con ello poder apreciar no solamente en
forma numérica si no también en forma gráfica
el ángulo y de esa manera mejorar la calidad
de supervisión y poder prevenir en el futuro
problemas de inestabilidad causadas por el
incremento de la diferencia angular.
Palabras Clave-- PMU; Unidad de Medición
Fasorial; Fasores; Diferencia angular.
1. INTRODUCCIÓN
El Centro de Control del CENACE tiene que enfrentarse con problemas cada vez más complejos en
una situación de constante evolución, entre estas cuestiones hay dos que destacan especialmente: la previsión de que las líneas de transmisión funcionarán cada
vez más cerca de su capacidad máxima y la necesidad
cada vez mayor de una supervisión mejor y más precisa del Sistema Nacional Interconectado.
Es por ello que cuando dos sistemas eléctricos independientes se interconectan existe el riesgo que un
problema en la interconexión ocasione una pérdida
total o considerable de carga en el Sistema Nacional
Interconectado, lo mismo podría suceder si una línea
de transmisión tuviera un problema produciendo el
disparo de la misma y uno de esos problemas que se
podrían producir es el ocasionado por un incremento en la diferencia angular entre los dos puntos de la
línea de transmisión o de la interconexión, es por ello
que es necesario implantar sistemas de mediciones
que permitan calcular los ángulos de fase y con ello
poder realizar una supervisión en tiempo – real del
sistema eléctrico de potencia
En la actualidad los equipos de mediciones que nos
permite calcular los ángulos en los diferentes puntos
del SNI son las Unidades de Medición Fasorial conocidas como PMU.
Este artículo que recoge partes fundamentales de
documentos de la red – internet que tratan de temas
fundamentales sobre las unidades de medición fasorial y su aplicación a la operación de sistemas eléctricos de potencia, y pretende introducir el concepto de
Supervisión del sistema eléctrico ecuatoriano sobre
la base de la información proporcionada por los sistemas de Unidades de medición fasorial - PMU.
247
Los temas que se desprendan de este artículo, apli-
cables a la operación del sistema ecuatoriano, deberán tratarse con la seriedad del caso de tal manera de
agilitar el proceso de mejoramiento de la operación y
la optimización en la utilización de las instalaciones
eléctricas, en base a la tecnología fasorial.
2. GENERALIDADES
La información disponible, a través del sistema de
manejo de energía Network Manager, para la supervisión del sistema eléctrico ecuatoriano se actualiza
cada 4 segundos, sobre la base de esta disponibilidad
de información, la operación preventiva del sistema se
sustenta en los siguientes pilares:
•
Supervisión de los límites máximos de
transferencia en vínculos de transmisión.
•
Supervisión de las magnitudes de generación
de cada uno de las unidades generadoras del
sistema.
•
Supervisión de la magnitud de la reserva para
la regulación de la frecuencia.
•
Y en ciertos casos la violación de cortes que
pondrían en riesgo la estabilidad del sistema
de ocurrir una determinada contingencia.
Figura 1: Representación del fasor de una onda sinusoidal
A esta representación se la denomina fasorial, en la
cual un fasor se lo define como: la longitud del radio
representa la amplitud, en este caso de la tensión, la
componente vertical tiene el valor A sen (ωt + φ) en la
curva sinusoidal de la corriente alterna, el ángulo φ, es
el ángulo de desplazamiento del fasor, con referencia a
una punto de ángulo 0.
El uso de la notación de fasores no solo trae consigo
una importante simplificación matemática; también
reduce las necesidades de sistemas electrónicos y de
capacidad de procesamiento, esta simplificación hace
posible la supervisión PMU global de la red.
3. TECNOLOGÍA FASORIAL
Bajo este escenario, sobre el cual el personal de
Operadores de la Sala de Control del CENACE realiza
su proceso, es imposible la determinación oportuna
de la evolución de los estados de riesgo, con referencia
a la separación angular paulatina, en una cierta área
del sistema.
El uso de fasores ha conllevado al término conocido como Tecnología Fasorial, que es considerada una
de las más importantes tecnologías de medición de los
sistemas eléctricos de potencia en la actualidad, debido a su única habilidad para mostrar datos análogos
de voltaje y corriente sincronizados con un GPS y calcular el correspondiente fasor para cualquier punto de
la red eléctrica (R).
Básicamente la identificación de un fenómeno de
tales características, en base a la información con las
características indicadas, se lo puede realizar únicamente ex post, bajo un análisis pormenorizado posoperativo; tornándose el proceso de supervisión en
tiempo real del sistema de potencia netamente correctivo.
La diferencia del ángulo de fase entre dos grupos
de mediciones fasoriales es independiente de la referencia. Típicamente, una de las mediciones fasoriales
es escogida como “referencia”. La diferencia entre los
otros ángulos de fase y esta referencia es calculada y
referida como el ángulo de fase relativa, como se puede observar en la Fig. 2.
Por otro lado, la simplificación de las dificultades propias de las ecuaciones diferenciales con largas expresiones como A sen (ωt + φ), típicas de las ondas sinusoidales
de la corriente alterna y variables en el tiempo ha supuesto pasar las ecuaciones referidas al eje temporal usual a
otro sistema de coordenadas. Así, la corriente alterna que
recibimos en nuestras casas, representada por la curva de
la izquierda de la Fig. 1, puede expresarse también con el
diagrama de la derecha de la misma Figura.
248
Leading phase angles
Lagging phase angles
Leading phase angles
Reference phase angle (0 Degrees)
Figura 2: Ángulo de fase relativo con respecto a un ángulo de
referencia común
Es importante determinar la diferencia angular entre dos puntos ya que si va aumentando el ángulo entre esos dos puntos implica una mayor tensión estática
ejercida entre dichos puntos por lo que conllevaría a
tener inestabilidad (R).
La inestabilidad y el colapso de voltaje son casi
siempre provocados por grandes perturbaciones, en
un escenario que puede contemplar:
•
Bajos voltajes iniciales,
•
Aumento importante de la carga,
•
Funcionamiento próximo del límite de la
capacidad de transporte de potencia,
•
Generación alejada eléctricamente de los
puntos de consumo, e.
•
Insuficiencia de medios de compensación de
potencia reactiva.
Estas situaciones llevan a un aumento de las pérdidas de potencia en la red, a un aumento de las relaciones de transformación de los transformadores
con cambiadores automáticos de Taps (LTC - Loaded
Transformer Changer) y a alcanzar los límites de producción de potencia reactiva por parte de los generadores o los compensadores sincrónicos del sistema.
El uso de PMUs permitiría prevenir algunos casos
de inestabilidad, que podrían conllevar a un corte de
energía total o parcial.
4. RED FASORIAL
La forma más simple para tener una red fasorial
consiste de dos nodos: un medidor de fasores conectado en un nodo que se comunica con un concentrador
de datos fasoriales en un segundo nodo.
Una red fasorial contempla los siguientes elementos;
•
La generación de las mediciones,
•
Sincronización de las mediciones
•
La transmisión de la información,
•
La recopilación o concentración, y
procesamiento de la información.
•
Interface Hombre – Máquina.
1.1. Unidades de Medición Fasorial
Son unidades de medición de diferentes parámetros eléctricos con una periodicidad en el orden de los
microsegundos, miden las variables de voltaje trifásico en una subestación y las intensidades de corriente
en las líneas, transformadores y cargas conectadas a la
subestación.
A partir de estas muestras de datos, se calculan las
tensiones e intensidades de secuencia positiva y se
marcan en el tiempo, mediante un GPS, asignándoles permanentemente el microsegundo exacto en que
se ha hecho la medición de los fasores. El dispositivo
prepara un mensaje con la marca de tiempo y los datos
del fasor en un formato definido en la norma IEEE
1344, de modo que puede transmitirse a un lugar distante a través de cualquier enlace de comunicaciones
que se encuentre disponible. Los datos de secuencia
positiva de los fasores de todas las subestaciones provistas de dichos dispositivos se centralizan en un lugar
apropiado utilizando un concentrador de datos o se
intercambian
Entre unidades locales para realizar las aplicaciones
de protección/control
1.2. Sistema Posicionamiento Global
El sistema de posicionamiento global de satélites GPS, consta de 24 satélites situados en seis órbitas, a
unos 16.000 Km de altura sobre la superficie de nuestro planeta. Es decir, están situados aproximadamente
a la mitad de la altura que correspondería a una órbita
Geoestacionaria.
El posicionamiento del plano orbital y la posición
de los satélites en las órbitas es tal que en un instante dado se pueden ver al menos cuatro satélites desde
cualquier punto de la superficie de la Tierra frecuentemente son visibles más de seis satélites. El canal de
uso civil del sistema GPS transmite las coordenadas
posicionales de los satélites desde los que es posible
determinar la ubicación de una estación receptora en
tierra. Además, los satélites transmiten una señal de
un impulso por segundo, junto con un identificador
de la señal que puede ser interpretado por los receptores de la estación terrestre. La transmisión, de uso
civil, de la señal de tiempo tiene una precisión de 1
microsegundo pero en la práctica a menudo se considera que es mucho más precisa.
El impulso de tiempo tiene una importancia fundamental para la aplicación de las unidades PMU. El método normal es la sincronización de fase de un reloj de
muestreo para este impulso, el instante de muestreo
será el número del impulso, dentro de un intervalo de
un segundo, identificado por la etiqueta de tiempo del
GPS. El formato exacto del etiquetado de tiempo se
define en la norma IEEE 1344. Es importante mencionar que el sector de la energía utiliza actualmente un
estándar de tiempo, conocido como estándar IRIG-B,
para los registradores digitales de fallos con etiquetado de tiempo y para otros sistemas de supervisión
de eventos en las subestaciones. No obstante, con los
receptores según estándar IRIG-B la precisión de la
249
sincronización es del orden de 1 milisegundo, lo cual
no es suficiente para obtener mediciones precisas del
sistema de distribución de energía (una tolerancia de
1 milisegundo corresponde a una incertidumbre de
aproximadamente 20°).
1.3. Medios de Comunicación
Un factor fundamental a la hora de implementar
el sistema es la comunicación de las mediciones con
marca de tiempo al concentrador de datos. Mientras
que la base de tiempos se distribuye a las unidades
PMU mediante una compleja red de satélites, los
dispositivos actuales utilizan tecnologías de comunicación telefónica, digital en serie y de Ethernet para
establecer la conexión con el concentrador de datos
PDC. Entre las diversas tecnologías que se aplican en
la infraestructura de comunicaciones se cuentan el cableado directo, las redes de radio que requieran o no
licencia, las microondas, los teléfonos público y celular, la radio digital y diversas combinaciones de estas
tecnologías (Fig. 3).
1.4. Concentradores de Datos Fasoriales
Los PDCs concentran y correlacionan datos de
fasores provenientes de los PMUs con su respectiva
bandera de tiempo para crear un sistema extenso de
grupos de mediciones, además los PDCs permiten
realizar las siguientes funciones adicionales:
•
Ejecutar varias revisiones de calidad en los datos
de los fasores e insertar apropiadas banderas
dentro del flujo de datos correlacionados.
•
Revisar alteraciones en las banderas y grabar
archivos o datos para realizar análisis.
•
Monitorear las mediciones globales del sistema
y proporcionar un display.
•
Proporciona un número de salidas
especializadas que permite tener una interfaz
directa para un SCADA o un sistema EMS.
Una computadora personal conectada a la salida de
los PDC proporcional al usuario mediante el uso de
un respectivo software que permita calcular y presentar: frecuencias, voltajes, corrientes, MW y MVar del
sistema eléctrico de potencia como se muestra en la
Fig. 4.
PMU
PMU
Concentrador
y cotejador
de datos
PMU
Figura 3: Sistema de comunicaciones típica de un PMU
Software
avanzado de
aplicación
Sistema
Control, funciones
de protección
Banco de datos
de archivos
PMU
Figura 4: Típica red fasorial
Los protocolos de comunicaciones utilizados por
los PDCs y PMUs es la IEEE C37.118 que fue desarrollado hace pocos años y aprobado en el 2005.
Además, la norma IEEE 1344 define los formatos
de archivos de salida suministrados por las unidades
PMU de medición de fasores. Se definen dos archivos
(Encabezamiento y Configuración) para la configuración y la asistencia a la interpretación de los datos de
los fasores, así como el formato del archivo de salida
binario en tiempo real, que consta de fasores y de la
marca de tiempo e incluye la salida principal de las
unidades PMU. La norma ha sido de gran ayuda para
garantizar que las futuras aplicaciones de la medición
sincronizada de fasores puedan acceder a los datos de
fasores suministrados por las unidades PMU de los
distintos fabricantes.
5. APLICACIONES DE LOS PMUs EN LOS
SISTEMAS ELÉCTRICOS DE POTENCIA
Las aplicaciones de los PMUs se las puede clasificar
en tres grupos que son:
•
Supervisión de sistemas eléctricos de potencia
•
Implementación de sistemas de protección
avanzados de SEP´s
•
Esquemas de control avanzado
1.5. Supervisión de sistemas eléctricos de potencia
Uno de los elementos más importantes de los modernos sistemas de gestión de energía que actualmente utilizan los centros de control es la estimación de
250
estado del sistema eléctrico de potencia a partir de
las mediciones en tiempo real. El estado del sistema
eléctrico de potencia se define como el conjunto de
las tensiones de secuencia positiva, obtenidas en un
momento dado, en todas las barras de la red, pero debido a las bajas velocidades y cálculos de exploración,
relativamente lentos, la tecnología actual no puede
proporcionar información sobre el estado dinámico
del sistema eléctrico de potencia.
Las mediciones sincronizadas de fasores abren una
posibilidad totalmente nueva para sintetizar el proceso de estimación de estado. La aplicación de esta tecnología eliminará en gran parte el retardo inherente
a los sistemas actuales de estimación de estado; los
centros de control estarán en condiciones de realizar,
en tiempo real, avanzados análisis de los imprevistos
estáticos y dinámicos que se producen en sus redes.
1.5.1. Aplicación al sistema eléctrico ecuatoriano
En el sistema ecuatoriano, como ya se
mencionó en la parte introductoria, se tienen
varios problemas de carácter sistémico, uno de
ellos de gran relevancia es la cargabilidad del SNT
agravado por la falta de compensación reactiva, de
tal manera que sistemáticamente la programación
de la operación diaria considera criterios de
seguridad que encarecen el costo de la operación
y desoptimizan la utilización de las instalaciones
eléctricas, con el objetivo de prever potenciales
problemas de inestabilidad: Por ejemplo, en las
líneas de transmisión: Santa Rosa Totoras, Daule
Peripa – Portoviejo y Daule Peripa Quevedo, las
transferencias elevadas de potencia han provocado
más de una ocasión inestabilidad en la zona,
produciéndose oscilaciones en el sistema.
De disponerse de supervisión del sistema, específicamente en estas zonas conflictivas, sobre la base de
los PMU´s, se podría establecer políticas de operación, que permitan, con un mayora grado de seguridad definir los niveles de transferencia a través de los
elementos indicados.
1.6. Protección avanzada de redes
Otro grupo de aplicaciones de la medición sincronizada de fasores se caracteriza por aumentar la
eficacia de la protección de los sistemas eléctricos de
potencia, es decir, la protección de los sistemas y equipos, y la preparación de esquemas de medidas correctoras. Por ejemplo, la protección tradicional de líneas
se basa en realizar mediciones de ciertas magnitudes
del sistema en un extremo de la línea para determinar
si se ha producido una avería. En el caso de las líneas
críticas, las mediciones se sincronizan mediante algún
mecanismo que proporcione esquemas de protección
diferencial para la detección de averías. Se considera
que la protección diferencial es la forma de protección
más fiable. En el futuro, las unidades PMU podrían
ser utilizadas para suministrar protección diferencial. Esta solución ofrece además la posibilidad de
limitar los daños que un acontecimiento catastrófico
podría provocar en el sistema eléctrico de potencia.
Por ejemplo, el estado de determinados interruptores
y seccionadores, el flujo de energía en líneas eléctricas
fundamentales, las tensiones en barras críticas, la potencia de salida de los generadores clave, etc., podrían
ser utilizados para formular una estrategia de respuestas acerca de si estos parámetros han de considerarse
como modelos ‘peligrosos’.
1.6.1. Aplicación al sistema eléctrico ecuatoriano
Nuevamente se toma el ejemplo de la zona Quevedo – Daule Peripa – Portoviejo.
Por ejemplo el estado de los disyuntores y seccionadores en las líneas Daule Peripa Portoviejo (dos
circuitos), el flujo de potencia a través de estas líneas,
los niveles de voltaje en las barras de 138 kV de la S/E
Portoviejo y de la central Daule Peripa, los niveles de
generación de las unidades de la central, podrían ser
utilizados para formular una estrategia de respuestas
automática (esquema de protecciones) ante tendencias de riesgo, evidenciados en el comportamiento de
los fasores asociados.
1.7. Esquema de control avanzado
Entre los dispositivos controlables instalados por
las compañías eléctricas se encuentran los estabilizadores de sistemas de distribución, los compensadores
estáticos de energía reactiva (SVC), los enlaces de CC
en AT, los controladores universales de flujo de energía, etc. Estos controladores han sido diseñados para
optimizar las funciones de control definidas como objetivo. Por ejemplo, un estabilizador de redes eléctricas puede estar encargado de atenuar las oscilaciones
electromecánicas de la red. El objetivo de un controlador SVC puede ser mejorar el perfil de la tensión en
determinadas barras críticas de la red. En todos los
casos los controladores utilizan como realimentación
señales derivadas localmente. Puesto que, frecuentemente, el fenómeno por controlar se define en términos de las variables generales del sistema, los controladores actuales dependen de un modelo matemático
del proceso de control, de la dinámica del sistema y
de la relación entre las variables locales y el estado del
sistema.
251
Las mediciones sincronizadas de fasores ofrecen
una oportunidad única para llevar al controlador las
mediciones del vector de estado del sistema, eliminando así el bucle de control de la incertidumbre propia
del modelo matemático. Así, el controlador implementado se basa principalmente en la realimentación
y menos en los modelos.
Luego de realizadas las conexiones, el PMU se configura y se somete a las pruebas de funcionamiento
respectivas, para luego ser conectado al PDC (Phasor
Data Concentrator). En la Fig. 5. se muestra la implementación típica de un PMU en una subestación.
1.7.1. Aplicación al sistema eléctrico ecuatoriano
En el sistema ecuatoriano, complementariamente a
la instalación de compensadores de potencia reactiva
SVC, se podría diseñar sistemas muy ágiles que garantizarían la oportuna respuesta ante problemas de fallas
y de inestabilidad de voltaje, llevando como señales
de entrada los fasores de las subestaciones críticas
del sistema, por ejemplo, un SVC en la S/E Pascuales
podría actuar de manera muy oportuna, llevando las
mediciones fasoriales de los puntos de mayor impacto
en la zona del SVC; o tal vez un SVC asociado a la
interconexión con Colombia alimentado por un conjunto de mediciones fasoriales, permitiría optimizar
la utilización de la capacidad de la interconexión, con
los consecuentes beneficios en la disminución de los
costos de la energía y el incremento de las reservas
energéticas.
Phasor
Measurement
Unit (PMU)
Figura 5: Implementación típica de un PMU en una
subestación
7. CONCLUSIONES, RECOMENDACIONES
•
La implementación de los sistemas de
unidades de medición fasorial permiten
cambiar la filosofía de la operación de sistemas
eléctricos de potencia, enfatizando el proceso
de supervisión y accionar preventivo.
•
La calidad y oportunidad de la información
disponible a través de estos sistemas, permiten
el diseño de políticas operativas de accionar
preventivo (como se lo mencionó en el literal
anterior), lo cual da un a flexibilidad al
programador para maximizar la utilización
de las instalaciones eléctricas en un sistema
y disminuir la generación de sobrecostos por
restricciones en la red.
El PMU con un MODEM y otro equipo de soporte
se instalan en un rack, también se instala una antena
GPS en el techo de la subestación siguiendo las instrucciones del fabricante, el cable de la antena al igual
que los TC´s y TP´s se llevan directamente al PMU.
•
Es necesario fortalecer las competencias del
grupo de operadores del sistema, para un
entendimiento y aprovechamiento óptimo de
la tecnología fasorial y de la información que
esta brinda.
Además de las conexiones de los TC´s y TP´s al
PMU también se requiere de las siguientes conexiones:
•
Existen sistemas de medición fasorial que
prácticamente se convierten en módulos
de sistemas de administración de energía EMS existentes, lo cual facilita el proceso de
implementación de estos subsistemas.
•
Se podría realizar un análisis costo beneficio
de la implementación de estos sistemas,
enfrentando los costos de inversión y
capacitación versus los costos de optimización
de la utilización de la red y de los elementos
del sistema de potencia, además de los costos
6. IMPLEMENTACIÓN DE PMUs
De las referencias consultadas y de las experiencias indicadas en estas referencias se desprende que
la instalación de un PMU es un proceso sencillo, considerando que un fasor de corriente o de voltaje esta
presente en cualquiera de las 3 fases. El PMU también
mide la frecuencia de la línea desde un fasor específico
de voltaje (típicamente se asigna una barra principal
del sistema de potencia para realizar dicha medición).
•
Conexión de energía, generalmente de un
banco de baterías
•
Conexión a tierra
•
Conexión de la antena GPS
•
Conexión del circuito de comunicaciones
252
•
asociados al aumento de la confiabilidad y
seguridad del sistema.
[11]
A. Phadke, J. Thorp, “Synchronized Phasor
Measurements and Their Applications”, USA, 2008
Es altamente recomendable que CENACE,
como Administrador del Sistemas eléctrico
nacional, encargado de garantizar la seguridad
del sistema y de minimizar los costos
operativos, emprenda en un proyecto nacional
de implementación de un sistema de medición
fasorial.
[12]
C. Cañizares, “Voltage Collapse and
Transient Energy Function Analyses of AC/DC
Systems”, 1991
8. REFERENCIAS BIBLIOGRÁFICAS
[1] R. Quintanilla Adánez, “Sistemas de Transporte
Inteligentes – Medición Sincronizada de Fasores”,
España, 2005
[2] Krish Narendra, “Role of Phasor Measurement
Unit (PMU) in Wide Area Monitoring and
Control”, Canada, 2007
[3] V. Centeno, M. Donolo y J. Depablos, “Software
Synchronization of Phasor Measurement Units”,
Francia, 2004
[4] J. Bertsch, C. Carnal, A. Surányi, “Detección de
la Inestabilidad en los Sistemas de Potencia y
Optimización de la Utilización de Activos con
InformIT Wide Area Monitoring PSG 850”,
Revista ABB, 2003
[5] WECC Performance Work Group, “Western
Interconnection Phasor Monitoring Network and
Visualization”, 2005
[6] California Energy Commission, “Real – Time
Grid Reliability Management”, USA, 2008
Roberto Barba Barba.- nació
en Quito, Ecuador, en 1968.
Obtuvo el título de Ingeniero
Eléctrico en la Escuela Politécnica
Nacional en 1996 y recibió el
grado
de
Magíster
en
Investigación Operativa de la
Escuela Politécnica Nacional en
el 2004, actualmente está desarrollando la tesis de
grado para la obtención de su título de Magister in
Bussiness Administration. Se desempeña como
Coordinador del Centro de Operaciones, del Centro
Nacional de Control de Energía. Su campo de acción
es la coordinación de la operación en tiempo real del
Sistema Nacional Interconectado.
Gustavo J. Araque D.- Nació en
Quito, Ecuador el 15 de mayo de
1981. Obtuvo el título de
Ingeniero Eléctrico en la Escuela
Politécnica Nacional en el año
2008, actualmente trabaja en la
Dirección de Operaciones del
Centro Nacional de Control de Energía.
[7] J. Eto, J. Dyer, M. Parashar, “Phasor Applications
for Monitoring, Alarming & Control”, Consortium
for Electric Reliability Technology Solutions
(CERTS), 2006
[8] D. Hart, D. Uy, V. Gharpure, D. Novosel, D.
Karlsson, M. Kaba, “Unidades PMU Supervisión
de las redes eléctricas: un nuevo enfoque”, Revista
ABB, 2001
[9] C. Martinez, M. Parashar, J. Dyer, J. Coroas,”
Phasor Data Requirements for Real Time WideArea Monitoring, Control and Protection
Applications”, 2005
[10] North American Synchro Phasor Initiative
(NASPI), “PMU System Testing and Calibration
Guide”, 2007
253
2011
Cambio de Paradigma en el Pronóstico del
Recurso Hidrológico-Influencia del Cambio Climático
P. Vásquez†
P. Guzmán‡
†Consejo Nacional de Electricidad - CONELEC
‡Corporación Eléctrica del Ecuador CELEC E.P., Unidad de Negocio HIDROPAUTE
Resumen - Sin lugar a dudas la crisis energética de
finales de 2009 e inicios de 2010, a más del costo que
representó para el Estado ecuatoriano, ha sentado
un claro precedente sobre la vulnerabilidad del
sector eléctrico ante las incertidumbres presentes
tanto en la severidad como en la duración de los
períodos de estiaje.
Generalmente, las incertidumbres presentes en
la predicción de caudales son sistemáticamente
consideradas a través de una modelación
probabilista-estocástica. No obstante, en la
actualidad, nuevas incertidumbres hasta
hoy omitidas, tales como los efectos del
cambio climático, conducirían a desaciertos
significativos en los pronósticos de los caudales.
Bajo estas condiciones, la técnica de robustez
-basada en probabilidades de excedencia-,
utilizada para la toma de decisiones de inversión
en generación, no garantiza adaptación
entre oferta y demanda, ya que asume que la
intensidad y duración futuras de los estiajes
así como de la estación lluviosa obedecerán a
un comportamiento histórico y por tanto no
evolucionarán en el tiempo.
Al ser un fenómeno global, el Ecuador difícilmente
escapará las consecuencias del cambio climático,
de ahí que en este trabajo, se demostrará que tanto
las hipótesis de estacionalidad (períodos lluviosos y
estiajes) así como de evolución estática-estadística
de los caudales en el tiempo -generalmente
asumidas para estudios de planificación de la
expansión de la generación- pudieran ser causales
de la ineficacia en los pronósticos.
Palabras Clave - Adaptación, cambio climático,
caudales, estadística, estocástico, excedencia,
generación,
hidrología,
incertidumbres,
planificación, probabilidad, riesgos.
1. VULNERABILIDAD EN LA OFERTA
La gran volatilidad de la oferta de energía eléctrica
a lo largo del tiempo, es uno de los problemas más
importantes a enfrentar dentro de la planificación de
la expansión de la generación en Ecuador. En efecto,
las sequías extremas, que reducen dramáticamente los
caudales que ingresan a las centrales de generación
hidroeléctrica, han dejado vulnerable periódicamente
al sistema eléctrico ecuatoriano. Durante dichos
períodos, los niveles de reserva del sistema eléctrico
ecuatoriano han sido alarmantes. Si a esto se suman
las reducidas y extemporáneas inversiones en
generación, las consecuencias más des-favorables
han sido profundas y prolongados períodos de
racionamientos.
Varias estrategias de decisión, tales como: la
complementariedad hidrológica de las cuencas, la
construcción de embalses y las inversiones en otras
tecnologías de generación (renovable y no renovable),
están siendo propuestas por los planificadores a
fin de reducir, en el corto y mediano plazo, esta
vulnerabilidad.
Sin embargo, estas estrategias han sido
evaluadas y obtenidas asumiendo que el modelo
estocástico, el cual utiliza Estadística Descriptiva
(ED) para generar valores futuros de caudales
medios mensuales, representa razonablemente -a
lo largo del horizonte de planificación (10 años o
más)- el complejo fenómeno de la hidrología. Es
decir, se asume que las incertidumbres presentes
en la magnitud y duración de los caudales medios
de las diferentes cuencas en Ecuador, obedecen
a un comportamiento histórico y, por tanto, no
evolucionarán en el tiempo.
Con la hipótesis de que tales incertidumbres
evolucionan en el tiempo debido a factores exógenos,
tales como el cambio climático y la influencia
humana, en el presente trabajo se evalúa la eficacia de
la tradicionalmente aplicada ED, en la modelación de
los caudales de Amaluza y Daule-Peripa.
2. EMBALSE AMALUZA
La Central Paute-Molino fue construida en dos
fases: la fase AB de 500 MW de potencia, que opera
desde 1983 y la fase C de 575 MW de potencia,
que está en servicio desde 1992; juntas entregan al
254
La presa Daniel Palacios, la cual fue construida
como parte de las obras de las fases A y B, da
lugar al embalse Amaluza, con una capacidad de
almacenamiento de 120 Hm³ y un volumen útil de100
Hm3. El vertedero de excesos tiene una capacidad de
descarga de 7724 m³/s.
Del embalse Amaluza se tiene una serie histórica
de caudales medios mensuales en el Río Paute de
46 años, comprendida entre 1964 y 2009. El valor
mínimo de 23.1 m³/s fue registrado en el mes de
diciembre de 1968, y un valor máximo de 352.3 m3/s,
en junio de 2007. En el ANEXO 1, se encuentra toda
la muestra histórica considerada en este estudio, al
igual que los valores: medios, máximos y mínimos
mensuales históricos registrados.
A continuación se grafican los caudales medios
anuales afluentes al embalse Amaluza, central Paute
– Molino, donde se observa que los años 1966,
1968. 1979, 1981, 1985, 1992 y 1995 son los más
críticos de caudales medios anuales con valores
de 90.1, 89.4, 80.3, 81.2, 87.6, 81.0 y 79.7 m³/s
respectivamente.
150.00
132.5
140.00
120.00
1968
1979
100.00
1995
80.00
2009
60.00
40.00
20.00
.00
Ene
Feb
Mar
Abr
May
Jun
Jul
Ago
Sep
Oct
Nov
Dic
Figura 2: Caudales medios mensuales
Para verificar si las incertidumbres presentes
en los caudales presentan algún tipo de evolución,
se toman distintas muestras con mayor o menor
cantidad de historia así veremos la que más se ajusta
al comportamiento actual.
Muestra 1: 1964 – 2009, muestra 2: 1974 – 2009,
muestra 3: 1984 – 2009, muestra 4: 1994 – 2009,
muestra 5: 1999 – 2009, muestra 6: 2004 – 2009.
118.2
111.6
200.00
110.9
106.7
111.6
100.00
99.8
89.4
95.2
1984 - 2009
1994 - 2009
1999 - 2009
100.00
2004 - 2009
2009
79.7
1988
8
1985
5
1982
2
1979
9
1976
6
1973
3
1970
0
50.00
2009
9
81.0
2006
6
81.2
70.00
1967
7
1974 - 2009
150.00
87.6
80.3
1964
4
99.4
2003
3
80.00
100.9
1994
4
90.1
1964 - 2009
108.3
106.9
2000
0
110.00
123.3
1997
7
107.7
Caudales medios anuales
250.00
128.5
125.9
114.6
1991
1
m3/S
160.00
m /s
130.00
60.00
180.00
146.4
143.2
139.6
140.00
90.00
Caudales históricos medios mensuales
200.00
Caudales medios anuales afluentes al embalse Amaluza
160.00
120.00
los caudales en el 2009 cayeron muy por debajo de
los caudales sucedidos en los años 1968 y 1995,
cambiando en diciembre el comportamiento con
caudales inferiores a los registrados en 1979 y
1995.
m /s
Mercado Eléctrico una producción anual media de
4700 GWh.
.00
Figura 1: Caudales medios anuales Amaluza
El año 2009, en el que ocurrió la crisis energética,
no aparece como uno de los años más críticos, es
más, el caudal promedio anual (106,9) está más bien
cercano al caudal promedio de la muestra para el
período 1964-2008.
Sin embargo, al analizar los caudales medios
mensuales, representados en la Fig. 2, se puede
notar que: en los meses de enero, febrero, abril,
mayo y junio, los caudales registrados en el año
2009 están por encima de los años históricamente
más secos (1968,1979 y 1995), mientras que en los
meses restantes, están por debajo de los caudales
registrados en el año 1968. En el mes de noviembre,
Ene
Feb
Mar
Abr
May
Jun
Jul
Ago
Sep
Oct
Nov
Dic
Figura 3: Caudales medios mensuales para distintas muestras,
Embalse Amaluza.
En general, del gráfico anterior se puede
observar que, entre enero y abril, la muestra 6 tiene
los caudales medios anuales más altos de todas la
muestras. En mayo, los valores descienden hasta ser
iguales a los valores registrados en la muestra 2, en
cambio para el mes de junio alcanza el pico más alto
de toda la muestra, para descender nuevamente hasta
octubre, mientras que en noviembre y diciembre tiene
nuevamente los valores más altos.
Entonces, por un lado, el comportamiento mensual
de los caudales, en el año 2009, estuvo por fuera de
la media histórica en dos períodos -valores superiores
255
a la media en el mes de abril, y valores inferiores a la
media en los meses de septiembre, octubre, noviembre
y diciembre, y que, por otro lado, la hidrología del año
2009 se ajusta mejor a la muestra que utiliza menor
historia, se concluye que: existe una evolución en la
intensidad y en las duraciones de las dos estaciones
climáticas. En efecto, se aprecia que las sequías,
durante los meses de septiembre, octubre, noviembre
y diciembre, son más extremas que en el pasado, y en
los meses de abril, mayo y junio, la época lluviosa es
más intensa que en el pasado.
3. EMBALSE DAULE-PERIPA
El embalse Daule Peripa tiene una serie histórica de
caudales medios mensuales de 60 años comprendida
entre 1950 y 2009. Con un valor mínimo de 0.4 m3/s
registrado en el mes de septiembre de 2007, y un valor
máximo de 1592 m3/s en abril de 1998.
En el siguiente gráfico, se muestran los caudales
medios anuales afluentes al embalse Daule-Peripa central Marcel Laniado.
Caudales medios anuales afluentes al embalse Daule Peripa
600.00
537
500.00
428
394
305
m /s
300.00
252
212
191
200.00
275
250
237
247
210
145
100.00
134
131
116
97
54
55
83
80
78
137
125
100
97
2006
2002
1998
1994
1990
1986
1982
1978
1974
1970
1966
1962
1958
1954
.00
1950
En el ANEXO 2, se encuentra toda la muestra
histórica considerada en este estudio, al igual que
los valores: medios, máximos y mínimos mensuales
históricos registrados.
COMPLEMENTARIEDAD
Del análisis efectuado en las secciones anteriores
se observa que la hidrología de Amaluza y DaulePeripa son, en general, complementarias durante
el período de enero a septiembre. Sin embargo,
durante los meses de octubre a diciembre, no existe
complementariedad, lo cual implica que la oferta
de energía disminuye dramáticamente durante este
período.
En la Fig. 6 se observa que la complementariedad
hidrológica entre el embalse Amaluza de la central
Paute – Molino y el proyecto Tortugo desaparece en
los meses de octubre a diciembre.
196
172
160
Del análisis de las distintas muestras (Fig. 5) se
puede observar una tendencia muy similar en ellas,
teniendo a la temporada de enero a mayo como la de
mayores caudales y junio a diciembre con caudales
menores, sin embargo el período 1999-2009 presenta
10 de los doce meses del año caudales inferiores, por
otra parte es notorio que el año 2009 los caudales
fueron inferiores durante todo el año a excepción de
los meses de Enero y Febrero.
Figura 4: Caudales medios anuales, Daule Peripa
300
Caudales medios mensuales del Proyecto Tortugo (m /s)
250
Al igual que para el embalse Amaluza,
se toman distintas muestras con mayor o
menor cantidad de historia, así veremos la
que más se ajusta al comportamiento actual.
400.00
1950 - 2009
m /s
1959 - 2009
1969 - 2009
300.00
1979 - 2009
1989 - 2009
1999 - 2009
200.00
2009
100.00
.00
Ene
Feb
Mar
Abr
May
Jun
Jul
Ago
Sep
Oct
Nov
Dic
Figura 5: Caudales medios mensuales para distintas muestras,
Daule Peripa
140
200
120
100
150
80
100
60
40
50
20
00
Ene
Feb
Mar
Abr
May
Jun
Proyecto Tortugo
Jul
Ago
Sep
Oct
Nov
Dic
00
Embalse Amaluza
Figura 6: Complementariedad Hidrológica Paute – Tortugo
Caudales medios mensuales - Embalse Daule Peripa
500.00
180
160
Del gráfico anterior se puede observar que los
años más críticos en cuanto a caudales medios anuales
afluentes al embalse Daule Peripa, se registran a los
años 1952, 1963, 1968, y 1985.
600.00
Complemetariedad Hidrológica entre la vertiente del Pacífico y del Amazonas
Caudales medios mensuales del Embalse Amaluza (m /s)
400.00
Muestra 1: 1950 – 2009, muestra 2: 1959 – 2009,
muestra 3: 1969 – 2009, muestra 4: 1979 – 2009,
muestra 5: 1989 – 2009, muestra 6: 1999 – 2009.
De ahí que, si bien planificar la expansión de
la generación con el criterio de complementariedad
reduce la vulnerabilidad de la oferta de generación
durante un periodo significativo, existe un período
de tres meses durante el cual el sistema eléctrico
ecuatoriano sigue siendo vulnerable. Por tanto, es
necesario que en la planificación se incorporen
criterios adicionales para el manejo de este
riesgo, tales como: incremento de la regulación
256
en la vertiente del Pacífico e incorporación de
generación de energía renovable (geotérmica,
fotovoltaica, eólica, etc.), en el largo plazo; y, en el
corto plazo, alternativas de decisión flexibles tales
como: generación térmica, generación distribuida,
e incorporación de elementos FACTS.
4. INCERTIDUMBRE
CLIMÁTICO
EN
EL
también por el incremento de la temperatura
(IDEAM, 2001). En el caso del reservorio de
Amaluza se estima que entre el 20 y 40% del
agua que llega al reservorio tiene su origen
en los páramos y bosques altoandinos de
las cordilleras Oeste y Central. En períodos
secos, sin embargo, podría alcanzar 100%
(Buytaert et al. 2008).
CAMBIO
La Convención Marco de las Naciones Unidas
sobre el Cambio Climático, en el Artículo 1 ratifica
como concepto de cambio climático al “cambio
de clima atribuido directa o indirectamente a la
actividad humana, que altera la composición de la
atmósfera mundial y que se suma a la variabilidad
natural del clima observada durante períodos de
tiempo comparables”, lo cual, desde el punto de
vista de analizar el impacto en la disponibilidad
del recurso hídrico y por tanto disponibilidad de
energía hidroeléctrica, implica el conocimiento de
las tendencias naturales o variabilidad natural del
clima.
Bajo la premisa de que gran parte de la
vulnerabilidad del sector eléctrico se encuentra en los
bajos niveles de reserva de agua ante eventos extremos
de sequía, es importante recalcar los hallazgos
realizados por el Panel Inter-gubernamental para el
Cambio Climático, IPCC por sus siglas en Inglés, con
respecto al recurso hídrico (IPCC, 2008).
Los datos observados y las proyecciones proveen
abundante evidencia de que los recursos hídricos (agua
dulce) son vulnerables y posen un alto potencial de
ser fuertemente impactados por el cambio climático,
con un amplio espectro de consecuencias para los
seres humanos y ecosistemas, así:
•
Cambios temporales y de magnitud en los
ciclos hidrológicos, con probable realce de las
crecidas con caudales mayores y de las sequías
con caudales menores (Beninston, 2003).
•
Cambios en la calidad del agua por el
incremento de la temperatura.
•
Pérdida de áreas naturales de reserva de
agua, como son los glaciares. A lo anterior
debe agregarse que en cuencas andinas
como la del Paute existe la probabilidad
de que las zonas de páramo cuyo suelo y
vegetación regulan de manera natural los
caudales manteniendo el flujo durante los
tiempos de sequía, también disminuyan su
área por el movimiento ascendente de las
fronteras de los ecosistemas, impulsados
En un análisis de las distintas muestras de la Fig.
3 se puede notar un acentuamiento de los extremos,
(caudales en el año 2009 de los meses enero, febrero
y abril se presentan más altos y los de septiembre
a diciembre los más bajos) siendo un indicio de la
tendencia esperada como consecuencia de cambio
climático, adicionalmente se nota claramente en
los hidrogramas de caudales variaciones que dan
cuenta de un fenómeno dinámico en el tiempo con
variaciones de más del 50% en épocas similares de
años distintos.
Con respecto al cambio de temperatura, en la
cuenca del río Paute se prevé un incremento decenal de
0,28 °C (PACC, 2009) y aproximadamente 0,2 °C para
Daule, esto implica un impacto en la disponibilidad
de agua por el incremento en la evapotranspiración y
el cambio de humedad del suelo, además que para los
cuerpos de agua como el embalse de Daule, Mazar y
Amaluza, significa un incremento en el crecimiento de
vegetación acuática, que podrían causar restricciones
en la movilidad y por ende dificultades operativas con
respecto a actividades como el dragado o problemas
de eutrofización.
Se plantea claramente un impacto de nuevas
variables en la forma de concebir la disponibilidad
futura de los recursos hídricos y por ende, de los
servicios relacionados, como es la producción de
energía hidroeléctrica, que para el caso del Ecuador
se encuentra estrechamente ligada tanto al plan de
expansión del sistema nacional como a la operación
del mismo.
5. DISCUSIÓN
Cuando se analiza el hidrograma de caudales
mensuales correspondiente al año 2009 a juzgar
por los meses iniciales y hasta el mes de julio se
esperaría un año normal en términos estadísticos,
sin embargo, a partir del mes de septiembre los
caudales tuvieron valores totalmente inferiores a los
esperados y predecibles de acuerdo a las tendencias,
lo cual muestra una marcada vulnerabilidad en la
consideración meramente estadística del fenómeno,
por lo que se vislumbra un cambio de paradigma en el
tratamiento de la variable caudales.
257
En primera instancia es necesario conocer a
cabalidad las tendencias de cambio a lo largo del
tiempo en las series disponibles, identificando las
oscilaciones, para lo cual se puede aplicar técnicas
basadas en la extracción de extremos en las series,
cálculo de las probabilidades de excedencia y análisis
de cómo extremos con la misma probabilidad varían
en el tiempo (Ntegeka & Willems, 2008).
Lo anterior permitirá profundizar en el conocimiento
de las desviaciones y su recurrencia, sin embargo es
necesario mejorar el entendimiento de los efectos
específicos de las futuras afecciones de cambio, tanto
en el aspecto climático como por aspectos degradativos
en las cuencas de interés. Ello configurará escenarios
de mayor claridad para disminuir la incertidumbre
y optimizar la implementación y operación de los
sistemas hidroeléctricos.
Cabe notar que en términos de volumen total (ver
Fig. 7), el año 2009 con 3371,7 Hm3 no representa uno
de los años más críticos, habiéndose registrado en la
serie analizada al menos 16 años con menor volumen
de agua, así el volumen 2009 está muy próximo al
volumen medio anual calculado para la serie 19642009 de 3454 Hm3.
Ingreso anual de agua Hm3, Embalse Amaluza
4393.7
2562.0
2544.4
1984
2833.7
3591.3
3407.2 3433.9
3461.2
3645.2
3408.3
3146.2
2767.1
3402.3
3183.6
2559.2
3499.4
3183.6
3320.4
3144.7
3328.3
Ante los efectos del cambio climático se
plantea la adaptación, siendo el primer gran
paso el reconocimiento y la valoración del
problema. Es probable que con acciones como la
conclusión del proyecto Mazar, el sector eléctrico
ecuatoriano, involuntariamente se esté adaptando
al cambio climático, sin embargo existen aún mas
incertidumbres que certezas, las cuales deberán
ser estudiadas y cuantificadas, a fin de realizar
acciones que coadyuven a una mayor efectividad en
la planificación, optimizando el tiempo y recursos
necesarios para enfrentar los cambios.
Se agradece al Consejo Nacional de Electricidad,
CONELEC y CELEC EP Unidad de Negocio
Hidropaute por brindar las facilidades tecnológicas y
físicas para llevar a cabo este trabajo.
3423.1
3371.7
2998.8
2518.4
2008
3370.8
3369.2
1980
2847.4
1968
2500
3517.1
3234.0
1964
2850
3515.9
3720.0
3816.2
2004
3200
3778.3
3891.5
2000
3279.9
3408.4
El reto de la planificación no solamente se
plantea como la oportunidad de incorporar nueva
infraestructura para enfrentar con solvencia
el crecimiento de la demanda y sobrellevar la
vulnerabilidad propia del SNI, ahora también se
avizoran variables antes no consideradas, con el
riesgo de incrementar la vulnerabilidad del lado de
los eventos naturales.
AGRADECIMIENTO
4054.4
3979.4
1988
3617.0
3971.6
1976
3550
1972
Volumen Hm3
3900
3831.5
4614.1
4520.9
4186.4
4250
1992
4600
lluvia es de 2,5 meses (PACC, 2009), similar al de
regulación para el embalse de Mazar, sin embargo
cabe notar que la estimación específica de escenarios
para la Cuenca del Paute aún está a una escala muy
gruesa y hasta cierto punto cualitativa antes que
cuantitativa, calculado sobre una grilla de 25 x 25 km.
Figura 7: Ingreso anual de agua Hm3, embalse de Amaluza
Por las tendencias globales se espera períodos
de sequías de mayor duración y menor caudal
(Beninston, 2003; Urrutia and Vuille, 2009), no
obstante los balances anuales permanezcan en los
rangos promedio conforme ocurrió en el año 2009
(ver Fig. 7), aquello implicaría replantear las premisas
y métodos de planificación del sector eléctrico,
tanto para la implementación, tipo de tecnología
y complementariedad de las centrales, así como
profundizar el conocimiento de los sistemas hídricos
individuales tal que se pueda mejorar la predicción
en el corto, mediano y largo plazo, incrementando la
eficiencia en el uso del recurso hídrico y la resiliencia
del sistema eléctrico ecuatoriano con respecto a los
cambios dinámicos que afectan el clima.
Se expresa un agradecimiento al Sr. Diego
Salinas, técnico de la Dirección de Planificación del
CONELEC, por haber colaborado en la elaboración
de este documento.
REFERENCIAS BIBLIOGRÁFICAS
El período estimado para extremos de escases de
258
[1] Laboratorio experimental SNI.
[2] Beninston M (2003). Climate change in
mountain regions: a review of possible
impacts. Climate Change 59, 5-31.
[3] Buytaert W, Célleri R, De Bievre B, Cisneros
F, Hofstede R, 2008. Impacto humano
en la hidrología de los páramos andinos.
Universidad de Cuenca, 65 p.
[4] Buytaert W, Deckers J, Dercon G, De Bievre
B, Poesen J, Govers G. 2002. Impact of land
use changes on hydrological properties of
volcanic ash soils in South Ecuador. Soil Use
and Management 18:94-100.
[5] Buytaert W, Vuille M, Dewulf A, Urrutia R,
Karmalkar A, Celleri R. 2010. Uncertainties
in climate change projections and regional
downscaling: implications for water resources
management. Hydrol. Earth Syst. Sci. Discuss.
7, 1821-1848.
[6] Celleri R. 2007. Rainfall variability and
rainfall runoff dynamics in the Paute River
Basin, southern Ecuador. K.U.Leuven, Faculty
of Engineerinf, Doctoral dissertation, 144 p.
[7] Gleik P. 2000. Informe del Equipo de
Evaluación del Sector Hidráulico sobre las
consecuencias potenciales de la variabilidad
y el cambio climático. Pacific Institute for
studies in development, environment and
security. 19p. [1]
[8] IDEAM, 2001. Colombia, Primera
comunicación nacional ante la Convención
Marco de las Naciones Unidas sobre el Cambio
Climático. IDEAM, Bogota.
[9] IPCC, 2008, Technical Paper on Climate
Change and Water.
[10] Ntegeka V., Willems P. (2008). Trends and
multidecadal oscillations in rainfall extremes
based on a more then 100 years time series
of ten minutes rainfall intensities at Uccle,
259
Belgium. Water Resourc. Res. 44, W07402,
doi: 10.1029/2007WR006471.
[11] Proyecto Adaptación al Cambio Climático a
través de una efectiva gobernabilidad del agua
en el Ecuador (PACC), 2009, Ministerio del
Ambiente del Ecuador. 164 p.
[12] Urrutia R., Vuille M. (2009). Climate
change projections for tropical Andes using
a regional climate model: Temperature and
precipitation simulations for the end of the
21st century, J. Geophys. Res., 114, D02108,
2009.
Paúl F. Vásquez Miranda,
Consejo
Nacional
de
Electricidad, CONELEC –
Director de Planificación.
Pablo Ismael Guzmán
Cárdenas, Jefe De Gestión
Ambiental Y Responsabilidad
Social en la Corporación
Eléctrica del Ecuador – Unidad
de Negocio Hidropaute..
2012
Procedimiento para el Control Automático de la Frecuencia en el
Sistema Nacional Interconectado del Ecuador
M. Arias
Consejo Nacional de Electricidad - CONELEC
Resumen-- Se presenta un procedimiento
que permite obtener los valores de ajuste del
factor BIAS de frecuencia del sistema eléctrico
del Ecuador a partir de la integración de las
características aleatorias de la carga del sistema, de
las características de los gobernadores de velocidad
de las unidades que participan en el control, de la
composición de las unidades que participan en el
control y de las bandas muertas de los sistemas de
control central de Ecuador y de Colombia.
Para la consecución de los objetivos se utilizan
métodos estadísticos para el procesamiento de
las bases de datos de mediciones tomadas en
tiempo real y métodos de simulación a partir
del modelo concentrado equivalente del sistema
interconectado Ecuador – Colombia.
Los valores de ajuste obtenidos al utilizar el
procedimiento propuesto son comparados con
los valores propuestos por procedimientos
de optimización encontrados en la literatura
especializada, atendiendo al criterio del número de
acciones de control y a la calidad de la respuesta de
la transferencia por las líneas de enlace.
Palabras Clave-- Regulación Primaria, Regulación
Secundaria, Reserva Rodante, Esquema de Alivio
de Carga, factor BIAS, Banda Muerta, Variaciones
de la Carga.
1. INTRODUCCIÓN
Para la operación correcta de los sistemas eléctricos
de potencia, la frecuencia debe permanecer lo más
cerca posible de su valor nominal. Garantizar mediante
acciones de control que el error de la frecuencia oscile
alrededor de cero asegura que la velocidad de las
máquinas de inducción y de las máquinas sincrónicas
permanezca constante, lo cual es particularmente
importante para su rendimiento satisfactorio [1]- [2].
Tres niveles de control son generalmente usados
para mantener el balance entre la generación y la carga
y se les conoce como control primario, secundario y
terciario de la frecuencia.
El control primario de la frecuencia es de tipo local
y actúa directamente en el eje de los generadores que
ajustan su potencia activa para restaurar de manera
rápida el desbalance de potencia. Este tipo de control
es muy efectivo para estabilizar la frecuencia cuando
ocurren grandes variaciones de la carga. Todos los
generadores que tienen activado los reguladores de
velocidad efectúan este control automáticamente. Las
cargas que son sensibles a los cambios de la velocidad
también tienen participación en este tipo de control,
debido al efecto de autorregulación.
El control secundario de la frecuencia es
automático y puede ser de tipo centralizado, pluralista
o jerárquico. En este control se ajusta la producción
de potencia activa de las unidades para restablecer
la frecuencia y el intercambio de potencia entre
las áreas de interconexión a los valores prefijados.
Requiere de sistemas de tele medición, procesamiento
de señales, comunicaciones y algoritmos de control
[1]. A diferencia del control primario que limita
las desviaciones de la frecuencia del valor fijado, el
control secundario lleva la frecuencia al valor nominal.
En este tipo de control no hay influencia de la carga.
El control secundario de la frecuencia no es necesario
en los sistemas eléctricos de potencia con estatismos
fuertes y con suficiente reserva para realizar el control
de la frecuencia de forma manual, lo que se conoce
generalmente con el nombre de control terciario de
la frecuencia [3]-[4]. No obstante, es imprescindible
en grandes sistemas interconectados debido a que
el control manual no elimina las sobrecargas en las
líneas de interconexión con la rapidez necesaria [3].
En el Sistema Nacional Interconectado -SNI del
Ecuador no se conoce con exactitud el valor de la
dispersión de la frecuencia, razón por la que no se pueden
definir los límites de tolerancia con los que se evalúa
el control de la frecuencia, tomándose en la práctica
valores sin apego a las normas internacionales actuales
o a las indicaciones de la literatura especializada.
En cuanto a los valores de la reserva para el control
de la frecuencia, éstos se fijan sin tener en cuenta la
dinámica del sistema. El esquema de alivio de carga
por baja frecuencia que se utiliza actualmente en el
260
sistema eléctrico del Ecuador no considera la rapidez
de variación de la frecuencia (df/dt) en el diseño de
los pasos de deslastre de carga. Con respecto a los
ajustes de las bandas muertas de los sistemas AGC y
al factor BIAS, se considera que los valores utilizados
en Ecuador y en Colombia obedecen a valores típicos
internacionales que no se ajustan necesariamente a las
condiciones específicas de ambos sistemas[5]-[6].
En este trabajo se determinarán, integrando las
características del sistema interconectado Ecuador Colombia, los valores de ajuste del factor BIAS de
frecuencia en el SNI del Ecuador. El procedimiento
propuesto será contrastado contra procedimientos de
optimización encontrados en la literatura especializada
y se verificará que brinde mejores respuestas en
cuanto a la calidad de la transferencia y al número de
acciones de control.
El presente artículo es la culminación de un proceso
investigativo que ha venido siendo publicado por la
revista Energía del CENACE (cuatro artículos), en
sus ediciones 2008 y 2010.
2. PROCEDIMIENTO PARA LA OBTENCIÓN
DE LOS VALORES DE AJUSTE DEL
FACTOR BIAS EN EL SNI DEL ECUADOR
En la Fig. 1. se muestra el diagrama de flujo del
procedimiento utilizado para la determinación del
factor BIAS de frecuencia en el SNI del Ecuador.
Base de Datos
Proporcionada por
CENACE
Despacho
Económico
Carga medida
cada 3s
Datos de la
Interconexión
Modelación
Reguladores de
Velocidad
Caracterización:
Variaciones
Aleatorias, Monótonas
y Estatismo
Cálculo del
momento de
Sincronización
Obtención del Modelo
Concentrado Equivalente
Generación ,
Frecuancia,
Transferencia, medidas
cada 3s
Estimación de los valores
de BIAS mínimos
necesarios para el
cumplimiento de los
criterios CPS de NERC
Estimación de la reserva
rodante y de las bandas
muertas del control
primario y secundario
Cálculo de estatismo efectivo
del sistema
Figura 1: Diagrama de flujo del procedimiento integral
utilizado para la determinación del factor BIAS de frecuencia
en el SNI del Ecuador
Nótese que la base para la determinación del factor
BIAS de frecuencia radica en el cálculo del estatismo
efectivo del sistema; que a su vez, es calculado a partir
de dos procesos paralelos: la estimación de la reserva
rodante y de las bandas muertas del control primario
y secundario de la frecuencia; y la estimación de los
valores del factor BIAS mínimos necesarios para el
cumplimiento de los criterios CPS de la NERC
2.1. Estimación de la reserva rodante y de las
bandas muertas
Para la estimación de la reserva rodante, y para
determinar las bandas muertas del control primario
y secundario, se requiere la caracterización de la
dinámica del control de la frecuencia, lo cual a su
vez implica la obtención del modelo concentrado
equivalente utilizado para las simulaciones de la
respuesta del sistema ante variaciones de la carga. El
esquema general para el estudio de la dinámica de la
frecuencia en un sistema interconectado de dos áreas
es el que se muestra en la Fig. 2.
En este esquema todas las unidades de los
dos sistemas se concentran en dos generadores
equivalentes, cuyas inercias son la suma de las inercias
de todas las unidades de cada sistema, representadas
como M1 y M2. Por otra parte D1 y D2 representan
los estatismos de la carga de cada sistema. Los
bloques con los nombres turbina, gobernador y 1/R
representan un sistema equivalente de control de
velocidad de los sistemas ecuatoriano y colombiano,
respectivamente. El bloque de ganancia T permite
modelar las variaciones de las transferencias por las
líneas de enlace de ambos sistemas. Estos parámetros
ya fueron calculados por este autor y publicados en [7],
en donde se destacó la importancia de la modelación
individual de cada uno de los sistemas de regulación
de velocidad las unidades de Ecuador y de Colombia,
aspecto que influye decisivamente en el cálculo del
estatismo efectivo del sistema.
Ajuste Adecuado del factor BIAS (respuesta
de las variables de estado y nº de acciones
de control)
Reajuste de la banda muerta del control
secundario (disminución del error medio de
la transferencia)
Verificación de la correlación Generación
Vs. Carga de la áreas de control
NO
SI
FIN
261
∆w 1
x
1
2�
dſ
dt
∑
-
1
x
∆w
1
M
∑
-
∆P11
1
2�
1
x + D1
1
+
DAF
M
T
∆P12
+
2
+
-
P11
x + D2
+
-
∑
+
∆
DAF
Turbina
Turbina
Gobernador
Gobernador
-
∑
∑
K1
x
K2
x
ACE
+
∑
-
+
+
Solo Unidades
bajo AGC
dſ
dt
P12
∆
1
R1
ß1
+
ACE
-
+
Control AGC
∑
∆P11
1
R1
Solo Unidades
bajo AGC
+
ß1
Figura 2. Esquema concentrado equivalente para el estudio
dinámico del control de la frecuencia
En cuanto a las variaciones aleatorias de la carga,
representadas en la Fig. 2 como el bloque ΔP, en otro
trabajo publicado por este autor [8], se utilizaron
técnicas estadísticas espectrales para la caracterización
de las desviaciones de potencia como función de la
potencia planificada en intervalos de poca variación
de la carga en el SNI del Ecuador.
Para completar el modelo concentrado equivalente,
solo falta por definir el esquema de alivio de carga,
representado en la Fig. 2 como el bloque DAF.
2.1.1. Esquema de alivio de carga
Se propone el diseño de un esquema de alivio de
carga (DAF) que combina las ventajas del uso de
los relés de tiempo definido y de los denominados
relés de derivada que tienen en cuenta la tasa de
variación de la frecuencia con respecto al tiempo.
Los objetivos principales del esquema radican en
mejorar el aprovechamiento de la reserva destinada al
control primario de la frecuencia (evitando deslastres
innecesarios de carga) y evitar valores de sobre
frecuencia cuando se accione el DAF.
Como se muestra en la Fig. 3, la sección del
esquema que utiliza los relés de derivada consta de
cuatro banderas que preguntan la tasa de variación
de la frecuencia con respecto al tiempo cuando la
frecuencia es igual a 59,4 Hz, 59,2 Hz, 59 Hz y 58,8
Hz. Internamente, cada bandera consta de varios
pasos de deslastre de carga que dependen del valor de
la derivada de la frecuencia con respecto al tiempo, tal
como se puede ver en la Tabla 1.
Figura 3. Esquema DAF propuesto que combina el uso de
relés de derivada y relés de tiempo definido
Con respecto a los relés de tiempo definido, nótese
que existen dos: uno que deslastra la carga cuando la
frecuencia ha llegado a los 58,7 Hz y otro que realiza
el deslastre a los 58,4 Hz. Esta sección del esquema
se acciona para fallas no muy grandes que provocan
una caída continua pero lenta de la frecuencia. Por
esta razón se impone un retardo adicional de 12 ciclos
(200 ms). En la Tabla 1 se muestran los ajustes del
esquema de alivio de carga propuesto para el SNI del
Ecuador.
El esquema DAF propuesto fue validado para
7 escenarios de salidas bruscas de generación en el
sistema interconectado Ecuador – Colombia. Estos
escenarios, como puede observarse en la Tabla 2,
tienen en cuenta las diversas combinaciones de
salidas de generación que pueden darse en sistemas
interconectados.
Los resultados de la validación se muestran en
la Tabla 3. Puede observarse que el esquema DAF
propuesto es válido tanto para demanda mínima como
para demanda punta, pues no existen valores de sobre
frecuencia y porque el aprovechamiento de la reserva
primaria es superior al 70 % en la mayoría de los
escenarios de simulación.
262
Tabla 1: Desconexión de carga para cada valor de ajuste del
DAF propuesto
Bandera/Ajustes
Pasos del df/dt Ecuador (Hz/s)
0,3*
0,5*
0,76*
0,9
1,3
59,4 Hz
3%
2%
3%
3%
4,5%
59,2 Hz
2%
2%
4%
4%
4,5%
59 Hz
2%
2%
2%
2%
4,5%
58,8 Hz
2%
2%
2%
2%
4,5%
Instantáneo 58,7 Hz.*
2%
Instantáneo 58,4 Hz.*
4,5%
Estable Punta
* Pasos con retardo intencional de 12 ciclos (200 ms
Tabla 2: Escenarios de validación del esquema de alivio de
carga propuesto
58,95
59,79
59,26
59,65
287
58,60
59,57
52,14
59,05
59,19
287
59,29
59,73
95,12
78,21
88,48
495
Disparo
Pérdida
Transferencia
Ecuador
Colombia
Total
Planificada
(MW)
(MW)
Enlace
(MW)
59,02
59,76
1
111
0
Sí
0
58,40
59,21
2
111
0
Sí
250
3
130
0
Sí
0
4
130
0
Sí
250
5
0
523
No
0
6
605
1150
No
250
7
605
0
Sí
400
Caso
Disparo
72,58
58,78
58,87
280,82
59,19
59,57
71,60
59,12
59,77
76,18
338,56
59,35
59,89
29,60
158,00
58,79
59,90
26,42
597,94
58,40
59,68
90,00
955,75
912
Para la obtención de los valores de la reserva
primaria se siguen los siguientes pasos:
Carga
Desconectada
(MW)
Frecuencia
Estable (Hz)
Frecuencia
Mínima (Hz)
Caso
Escenario
Estable Mínima
59,78
52,14
2.1.2. Estimación de la reserva rodante
•
Verificar que en condiciones normales
de trabajo el valor de la reserva primaria
garantice el cubrimiento de las variaciones
aleatorias de la carga, que según [8] son:
19,36 MW en demanda mínima, 23,29 MW
en demanda media y 25,16 MW en demanda
máxima.
•
Para condiciones de falla, la reserva primaria
y el esquema de alivio de carga (DAF)
deben garantizar una respuesta dinámica de
la frecuencia adecuada; es decir, valores de
frecuencia mínima superiores a los 57 Hz
y valores de frecuencia post falla cercana e
inferior a 60 Hz.
Tabla 3: Validación del esquema DAF propuesto para las
horas de demanda mínima y máxima
59,29
80,13
71,60
Es importante aclarar que en la determinación de la
reserva primaria se parte de un valor correspondiente
a las desviaciones aleatorias de la carga y se va
subiendo hasta que se satisfacen los requerimientos
de desviación máxima de frecuencia, frecuencia de
estabilización y utilización de la reserva, aspectos
frecuentemente evaluados en la bibliografía
especializada. Los niveles de reserva primaria para el
SNI del Ecuador se muestran en la Tabla 4.
En cuanto a la reserva rodante necesaria para efectuar
el control secundario, se debe asegurar que dicha
reserva cubra las variaciones aleatorias de la carga.
Lo anterior se debe a que los sistemas para el control
automático de la generación (AGC) están diseñados
para trabajar en condiciones normales de operación.
263
Tabla 4: Reserva para el control primario en el SNI del Ecuador
Banda
Horaria
Potencia
Media MW
Reserva en
MW
Reserva
en %
Mínima
1650
45
2,73
Media
2414
52,5
2,17
Punta
2864
60
2,09
p.u.
2.1.3. Estimación de las bandas muertas
La banda muerta para el control secundario se fija
de la siguiente forma: 5,5 MW en el Ecuador para
la demanda mínima y 8,75 MW para la demanda
máxima. Estos valores fueron fijados en función de la
desviación media cuadrática de las desviaciones de la
potencia, siguiendo el procedimiento descrito en [8].
La banda muerta para el control primario se fija en
31 mHz. Este valor obedece a las recomendaciones
encontradas en la literatura especializada [9].
2.2. Estimación de los valores de BIAS necesarios
para el cumplimiento de los criterios CPS de
la NERC
En un trabajo publicado por este autor [10],
se presenta un estudio de la verificación del
cumplimiento de los criterios CPS de la NERC en el
SNI del Ecuador, en el primer semestre del año 2008.
Según este estudio, cuando el BIAS es ajustado en
un valor inferior a los 150 MW/Hz para la demanda
mínima y de 250 MW/Hz en demanda máxima,
no se cumplen los criterios CPS de la NERC. Este
es un argumento limitante para el ajuste del factor
BIAS de frecuencia en cualquier sistema eléctrico
de potencia.
2.3. Cálculo del estatismo efectivo del sistema
En las secciones 2.1 y 2.2 de este trabajo se
explicaron los procesos paralelos que permitieron
estimar la reserva rodante y las bandas muertas para el
control de la frecuencia, y definir los valores mínimos
de BIAS para cumplir los criterios CPS de la NERC.
A partir de estos procesos paralelos se puede calcular
el estatismo efectivo del sistema y, de acuerdo con el
diagrama de flujos de la Fig. 1, ajustar los valores del
factor BIAS para el SNI del Ecuador.
Le y Kramer plantean en [11] un método que
permite calcular el estatismo efectivo del sistema a
partir de las simulaciones de la respuesta dinámica
del sistema ante fallas. La expresión (1) permite
calcular el promedio móvil de la señal del error de
control de área en un intervalo de tiempo T.
T: intervalo de análisis. Por ejemplo, si se desea
calcular el promedio móvil de la señal de error de
control de área en el periodo estable de la demanda
punta, el intervalo de simulación y cálculo será de
una hora (19:30 a 20:30 horas),
ACE: señal error de control de área,
Ta: transferencia planificada por las líneas de enlace.
PL: carga del sistema.
∆P base: carga base del sistema.
∆ω: velocidad síncrona del sistema. En por unidad
es igual a la frecuencia del sistema.
τa, τb, τc: parámetros que permiten calcular el
promedio móvil de la señal del error de control de
área.
ΔP error: señal de error de la potencia. Es igual a la
potencia generada en el sistema, menos la potencia
utilizada para la regulación de la frecuencia y menos
la carga base del sistema.
Como los parámetros τa, τb, τc varían con
las condiciones del sistema, sus valores deben
actualizarse continuamente, para lo cual se usa
un algoritmo recursivo de mínimos cuadrados.
A cada paso de actualización k, el estatismo del
sistema puede ser calculado con la expresión (2).
Para poder aplicar el método de los mínimos
cuadrados es necesario construir un sistema
indeterminado de cuatro ecuaciones para obtener la
solución de las tres incógnitas: a τa, τb, τc, partir de
la expresión (1).
La forma de obtener el sistema indeterminado
necesario se observa en la Fig. 4. Recuérdese que
se considera un intervalo de análisis de una hora, o
264
3600 segundos. Debido a que la lectura de los datos
se hace cada 3 segundos, en un intervalo horario
habrá 1200 mediciones.
Las cuatro ecuaciones formadas son arreglos de las
variables vistas en la expresión (1); es decir: ACE ,
ACE, PL, ΔP error, ΔP base y Δω. Por ejemplo, para
obtener el primer valor de ACE , se toma una ventana
de un minuto y se promedian los primeros 20 valores
del ACE. El segundo valor de ACE , se obtiene
moviendo la ventana de un minuto 3 segundos más
adelante. Nótese que ahora el promedio del ACE
se hará considerando las mediciones 2 a la 21. El
tercer valor del ACE , se obtiene del promedio de las
mediciones 3 a la 22 y, finalmente, el cuarto valor
del ACE , se obtiene del promedio de las mediciones
4 a la 24 del ACE.
Con el mismo método se pueden calcular los
valores del ACE, PL, ΔP error, ΔP base y Δω,
solo que en lugar de buscar el promedio de las
20 mediciones, esta vez se busca la diferencia del
último valor del arreglo menos el primero. Nótese
que a los 12 segundos (k = 12) ya se tienen un
sistema de cuatro ecuaciones con tres incógnitas.
Aplicando el método para todo el intervalo horario
(1200 mediciones) se tendrán 100 sistemas de
cuatro ecuaciones con tres incógnitas. Con el
método de los mínimos cuadrados se pueden
obtener las soluciones de este sistema.
Con el procedimiento descrito anteriormente, y
partiendo de la base de datos obtenida a partir de
la simulación del sistema (para lo cual se utilizó el
esquema concentrado equivalente de la Fig. 1), se
calcularon los valores del estatismo efectivo del SNI
del Ecuador para los tres periodos de la demanda. En
la Fig. 5 se muestran los resultados de la demanda
punta.
• Demanda mínima: 119 MW/Hz,
• Demanda máxima: 235 MW/Hz,
3s
ACE
ti
Sistema indeterminado de
cuatro ecuaciones con 3
incógnitas
Intervalo
Horario
tf
Ventanas móviles de 1 minuto
Figura 4. Obtención del sistema indeterminado de cuatro
ecuaciones con tres incógnitas necesario para la aplicación del
método de los mínimos cuadrados
MW/Hz
1200
900
600
Demanda Punta
300
0
3
6
9
12
15
18
Cantidad de Valores
Figura 5: Cálculo del estatismo efectivo del SNI del Ecuador
en Demanda Máxima
3. COMPARACIÓN DEL PROCEDIMIENTO
PROPUESTO
El procedimiento propuesto se compara, desde los
puntos de vista de la respuesta de la transferencia y
del número de acciones de control, con los siguientes
procedimientos de ajuste del factor BIAS:
• Periodo rampa máxima demanda: 235 MW/
Hz.
Teniendo en cuenta los valores calculados del
estatismo efectivo, y considerando los valores
mínimos necesarios para el cumplimiento de los
criterios CPS de la NERC, se proponen los siguientes
valores de ajuste para el factor BIAS de frecuencia
en el SNI del Ecuador: 150 MW/Hz para la demanda
mínima y 250 MW/Hz para la demanda máxima.
265
1.
Procedimientos de optimización debidos a
Patel y Játiva [12] - [13]. Estos dos autores,
a través del uso de técnicas de inteligencia
artificial, coinciden en que el factor BIAS
debe ajustarse en un valor igual al 85 % del
valor del estatismo del sistema. Los ajustes
de este procedimiento son: demanda mínima
con 180 MW/Hz; demanda máxima con 280
MW/Hz.
2.
Procedimientos de optimización clásicos
[1]. Estos procedimientos ajustan el
factor BIAS en un valor igual al valor del
estatismo del sistema. El estatismo del
sistema ecuatoriano se calculó a partir de
la información extraída de los despachos
económicos típicos proporcionados por el
CENACE: 220 MW/Hz en demanda mínima
y 330 MW/Hz en demanda máxima.
comparados muestran mayores niveles de dispersión
del error de la transferencia. Sin embargo de lo dicho
anteriormente, es necesario demostrar que el método
propuesto es superior en cualquier escenario de
simulación, para lo cual es necesario hacer uso de
pruebas estadísticas específicas.
3.Los periodos de simulación son los siguientes:
desde las 03:00 a las 05:00 horas en
demanda mínima, desde las 19:00 hasta las
20:00 horas en demanda máxima y desde
las 17:00 hasta las 18:00 en el periodo de
monotonía. Los periodos de simulación del
orden de 1-3 horas para la evaluación del
comportamiento del control de la frecuencia
son típicos [1], [2], [11].
Para demostrar que el método propuesto da menos
dispersión en la desviación estándar del error medio
de la transferencia se utilizó el Test Estadístico “F
– Test”, que trata de rechazar la hipótesis de que
dos vectores independientes, que vienen de una
distribución normal, tienen la misma varianza, con
la hipótesis alternativa de que las varianzas son
diferentes.
3.1. Comparación de la respuesta de la
transferencia
Lo que se espera de un buen control de la
transferencia por las líneas de enlace es que el
error medio de la transferencia sea lo más cercano
posible a cero y que la desviación estándar sea la
menor posible, pues ésta puede interpretarse como
potencia inadvertida (y acumulación del desvío del
tiempo) en las áreas de control. Por estas dos razones
el procedimiento propuesto (método integral) es el
que presenta mejores resultados, según lo que se ve
en las Tabla 5. Hay que señalar las diferencias en
la dispersión de la transferencia para las variantes
analizadas se exponen en términos de energía, por ser
éstas considerables a lo largo del tiempo.
Por otra parte, para demostrar que el método
propuesto produce un menor error medio de la
transferencia, se utilizó el Test Estadístico “T – Test”
que trata de rechazar la hipótesis de que dos vectores
independientes, que vienen de una distribución
normal, tienen el mismo valor medio y la misma
varianza, con la hipótesis alternativa de que con el
método propuesto se consigue una menor varianza, o
menor dispersión en la respuesta de la transferencia.
Los resultados de las pruebas de hipótesis se pueden
observar en las Figuras 6 y 7.
Tabla 5: Diferencias en la dispersión del error de la
transferencia, obtenidas al comparar los procedimientos de
ajuste del BIAS, expresadas en MWh
Propuesto
(modelo integral)
8,30
4,76
6,55
Optimización
de Patel-Játiva
8,46
5,12
6,70
6,12
6,64
Optimización
Clasica
Nivel
Propuesto
de
Nº de
Vs
Confianza Muestras
Patel
Játiva
Total
(MWh.)
Punta
F Test: Prueba de la varianzas
-
Clasico
Rechazo
de la
Hipótesis
Nula
P - value
95 %
850
Si
0,0233
95 %
850
Si
2,8346e010
F Test: Prueba de la varianzas
Mínima
De lo visto en las Tablas 5, y teniendo en cuenta
los diversos escenarios de análisis, se puede concluir
que el procedimiento de ajuste del factor BIAS de
frecuencia que brinda la menor dispersión de la
transferencia es el propuesto en este artículo (método
integral). Los métodos de ajuste por optimización
266
Nivel
Propuesto
de
Nº de
Vs
Confianza Muestras
Rechazo
de la
Hipótesis
Nula
P - value
400
Si
0,003
95 %
400
Si
3,9155e009
Las dos conclusiones anteriores permiten asegurar
que con el método propuesto se consiguen menores
valores de energía inadvertida por las líneas de enlace
con Colombia. Esto también se puede interpretar
como una disminución en la acumulación del error
del tiempo.
Figura 6: Resultados de la prueba de hipótesis de las
varianzas
Analizando los valores del p value (mucho
menores que 0,05) mostrados en la Fig. 6, se puede
concluir que con el método propuesto se consiguen
menores valores de dispersión en la respuesta de
la transferencia, con independencia del periodo de
demanda horaria que se analice.
Nivel
Propuesto
de
Nº de
Vs
Confianza Muestras
Patel
Játiva
-
Clasico
Punta
Rechazo
de la
Hipótesis
Nula
95 %
850
Si
0,0079
95 %
850
Si
7,0820e011
F Test: Prueba de las medias
Nivel
Propuesto
de
Nº de
Vs
Confianza Muestras
Patel
Játiva
Clasico
-
P - value
De acuerdo con estas Tablas, el procedimiento
propuesto integral propuesto para ajustar el factor
BIAS produce 31 acciones de control menos que los
procedimientos de optimización propuestos por Patel
y Játiva; y produce 48 acciones de control menos que
los procedimientos clásicos de optimización, en los
escenarios de estudio utilizados.
Tabla 6: Número de unidades bajo AGC y número de acciones
de control que se producen al ajustar los valores del factor
BIAS de acuerdo con los procedimientos bajo análisis
Mínima
Rechazo
de la
Hipótesis
Nula
En las Tablas 6 y 7 se muestran las acciones de
control que se producen en cada unidad bajo AGC
de Paute cuando se ajusta el BIAS de acuerdo a lo
establecido en los procedimientos bajo análisis.
Nótese que se han simulado los periodos de demanda
mínima, máxima y el periodo de monotonía que va
desde la demanda media a la máxima. La banda
muerta de Colombia ha sido fijada en 12 MW para la
demanda mínima y 20 MW para la demanda máxima
y es un dato de entrada fijo para todas las variantes
comparadas.
Mínima
P - value
95 %
400
Si
0,022
95 %
400
Si
6,6283e008
Procedimiento
Figura 7: Resultados de la prueba de hipótesis de las
medias
Analizando los valores del p value (mucho
menores que 0,05) mostrados en la Fig. 7, se puede
concluir que con el método propuesto se consiguen
menores valores de error medio en la respuesta de
la transferencia, con independencia del periodo de
demanda horaria que se analice.
267
P r o p u e s t o
(modelo integral)
3
Optimización
Patel-Játiva
de
3
Optimización
Clasica
3
Nº de
acciones /
F Test: Prueba de las medias
3.2. Comparación del número de acciones de
control
Nº de
unidades
Clasico
95 %
Nº de
acciones /
Nº de
unidades
Nº de
-
Nº de
unidades
Patel
Játiva
9
Tabla 7: Número de acciones de control que se producen
al ajustar los valores del factor BIAS de acuerdo con los
procedimientos bajo análisis
Procedimiento
Total
Propuesto
(modelo integral)
21
20
45
86
Optimización
de Patel-Játiva
27
25
65
117
39
25
70
Gráfica de Generación Vs. Carga
134
4. COMPROBACIÓN TEÓRICAS DEL VALOR
AJUSTADO PARA EL FACTOR BIAS EN EL
SNI DEL ECUADOR
8590
2610
8580
2600
8570
2590
8560
2580
8550
MW
Como conclusión de lo visto hasta el momento se
puede decir que el procedimiento propuesto para fijar
el BIAS en el SNI del Ecuador produce menos acciones
de control que los procedimientos de optimización
que se utilizaron para las comprobaciones, además
de conseguir menores niveles de dispersión en la
respuesta de la transferencia. Como corolario de lo
anterior se puede resaltar que se justifica la necesidad
de incluir en las modelaciones el efecto aleatorio de la
carga y las alinealidades de los esquemas de control
de las unidades de generación.
2620
MW
Optimización
Clasica
independientemente del movimiento de la carga de
Colombia.
2570
8540
Generación Ecuador
2560
Carga Ecuador
Carga Colombia
2550
2540
0
2
4
6
8
10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50 52 54 56 58 60
minutos
8530
8520
8510
Figura 8: Gráfico de la Generación del Ecuador Vs. la Carga
del Ecuador y la Carga de Colombia. El eje izquierdo de las
ordenadas contiene la escala de la generación y de la carga del
Ecuador. El eje derecho de las ordenadas contiene la escala de
la carga de Colombia
5. CONCLUSIONES
Cuando el BIAS de un área es ajustado de forma
correcta, la generación del área debe seguir a las
variaciones de la carga que se dan dentro de sus
fronteras. Por ejemplo, si se produce una falla en
el área 1, las demás áreas participan en el control
primario, pero solo el área 1 ejecuta el control
secundario para llevar el error de la frecuencia a
cero. De esta manera se puede afirmar que el control
secundario es correcto.
Se realizaron comprobaciones encaminadas a
demostrar que con los valores de BIAS fijados con
el procedimiento propuesto se consigue un control
correcto. Se toma como ejemplo el valor de ajuste
para la demanda punta. La data necesaria fue tomada
de los registros históricos del CENACE y representa
a las variaciones de la carga que se producen entre las
20:00 y las 21:00 horas (60 minutos de análisis) de un
día laborable típico. Ver en la Fig. 8 que la generación
en el área ecuatoriana (rojo) sigue a las variaciones de
la carga del Ecuador (azul) y no a las variaciones de la
carga de Colombia (verde). Por ejemplo, observar el
periodo que va desde los 32 a los 40 minutos: en este
intervalo la carga de Colombia baja desde los 8570
MW hasta los 8530 MW; mientras que la carga de
Ecuador oscila alrededor de los 2600 MW; es decir,
oscila alrededor de un valor constante.
El control secundario en el lado ecuatoriano
es correcto puesto que la generación en dicha
área también oscila alrededor de los 2600 MW,
268
1.
El procedimiento propuesto para ajustar
el factor BIAS de frecuencia permite la
obtención de los valores de ajuste del
factor BIAS en el SNI del Ecuador a partir
de la integración de las características
aleatorias de la carga del sistema
interconectado, las características de
los gobernadores de velocidad de las
unidades que participan en el control de la
frecuencia, la composición de las unidades
que participan en el control, las bandas
muertas de los sistemas AGC de Ecuador
y de Colombia. Lo anterior constituye una
novedad científica.
2.
Para la validación de este procedimiento
se simularon periodos representativos de
mínima y máxima generación (de dos y
una horas de duración). Estas simulaciones
permiten concluir que los resultados
alcanzados son superiores a los obtenidos
por las principales propuestas de ajuste
reflejados en la bibliografía especializada
en cuanto a:
•
Calidad de la respuesta de la transferencia,
reflejada en menores valores de la
dispersión y del error medio.
•
Menor cantidad de acciones de control
secundario de las unidades asignadas a esa
tarea, lo que disminuye el desgaste de las
unidades.
ancillary services.” IEEE Trans. Power Syst. Vol
22. No. 1, 350-357: 2007.
•
Alta correlación entre las acciones de
control secundario y las variaciones de la
carga en el sistema eléctrico del Ecuador.
•
Cumplimiento de los criterios de calidad
de la operación sugeridos por la NERC.
[4] P. Kumar, D. Kothari. “Recent philosophies of
automatic generation control strategies in power
systems.” IEEE Trans. Power Syst. Vol 2o. No.
1, 345-357: 2005.
•
Obtención de reservas de generación
primaria y secundaria adecuadas a las
necesidades del sistema en condiciones
transitorias y estables de trabajo.
3.
4.
El esquema de alivio de carga propuesto en
este trabajo fue validado para 7 escenarios
típicos de contingencias múltiples que se
producen en el sistema interconectado
Ecuador – Colombia. Las ventajas de este
esquema radican en el aprovechamiento
de la reserva primaria y en la selectividad
de la protección que evita los valores de
sobre frecuencia.
En el presente artículo se ha propuesto
un método para la determinación de la
reserva rodante necesaria para el control
de la frecuencia que considera la dinámica
de la respuesta de la frecuencia ante falla
y en condiciones normales de operación,
atendiendo a las variaciones aleatorias de
la carga.
RECOMENDACIONES
En este trabajo se utilizó para las simulaciones
el paquete computacional MATLAB. Las técnicas
de programación empleadas permitieron que las
simulaciones off line se hagan en un tiempo promedio
de 25 minutos por cada hora de simulación. La versión
MATLAB 10 permite un mejor aprovechamiento de
los procesadores de 4 núcleos y una reducción en los
tiempos empleados para la simulación.
REFERENCIAS BIBLIOGRÁFICAS
[1] P. Kundur Power system Stability and Control.
New York: Mc Graw Hill., 1994.
[2] L.R. Chien, N. Hoonchareon. “Estimation of
B for adaptive frequency bias setting in load
frequency control.” IEEE Trans. Power Syst.
Vol 18, No. 2, May 2003: 904-9111.
[3] “A survey of frequency and voltage control
269
[5] Manual de entonación de Parámetros de Control
Automático de Generación (AGC) EDELCA.
Manual, Caracas: ABB, 2001.
[6] Manual de Entonación de Parámetros del
Control Automático de Generación (AGC) del
Sistema Interconectado Ecuador - Colombia.
Manual, Quito: ABB, 2007.
[7] M. Arias, A. Martínez, H. Arcos. “Dinámica
de la
frecuencia del Sistema Interconectado
Ecuador - Colombia.” Energía CENACE, 2008.
[8] M. Arias, A.Martínez, H. Arcos. “Caracterización
de la carga del SNI del Ecuador.” Energía
CENACE, 2008.
[9] Y. Rebours, D. Kirschen. “A survey of frequency
and voltage control auxiliary services.” IEEE
Trans. Power Syst. , 2007 Vol 22 No. 1: 350 357.
[10] M Arias, A. Martínez, H. Arcos. “Verificación
de los criterios CPS de la NERC en el SNI del
Ecuador.” Energía CENACE No. 6, Feb. 2010.
[11] R. Le, A. Kramer. “Estimation of B for adaptive
frequency BIAS setting in Load Frequency
Control.” IEEE Transaction on power systems
Vol. 18, No. 2, May 2003: 904 -912.
[12] N, Patel. “Application of artificial intelligence for
tuning the parameters of an AGC.” International
Journal of Engineneering and Physical Sciences,
Ene. 2007.
[13] J, Játiva. “Implicaciones de la calibración del
factor de frecuencia B en el desempeño del error
de control de área para el control automático de
la generación.” Escuela Politécnica Nacional del
Ecuador, JIEE Vol. 19, 2005.
Marcelo Arias Castañeda.Nació en Cuenca, Ecuador, en
1980. Recibió su título de
Ingeniero Eléctrico en 2006, el
de Máster en Ingeniería Eléctrica
en 2008, y el de Doctor en
Ciencias Técnicas en el año
2011, en el Instituto Superior
Politécnico “José Antonio
Echeverría” de la ciudad de La Habana, Cuba.
Actualmente trabaja en la Dirección de Supervisión
y Control del Consejo Nacional de Electricidad CONELEC.
270
2013
Metodología de Sintonización de Parámetros del Estabilizador del
Sistema de Potencia -PSS
P. Verdugo†
J. Játiva‡
Centro Nacional de Control de Energía –CENACE
†
‡
Escuela Politécnica Nacional –EPN
Resumen— Los sistemas eléctricos de potencia
son susceptibles de perder su estabilidad debido
a problemas asociados con la oscilación del rotor
de los generadores sincrónicos. Para amortiguar
estas oscilaciones se requiere la incorporación de
un dispositivo en el sistema de excitación de estas
máquinas. Este dispositivo es el estabilizador de
sistemas de potencia (PSS).
En este trabajo se presenta un estudio del
comportamiento de un sistema de prueba
utilizando análisis modal. Con esta herramienta se
puede llegar a conocer los modos de oscilación y su
amortiguamiento así como la ubicación preliminar
de un PSS en el sistema. Esta información es
respaldada mediante un análisis de frecuencia en
el modelo Generador – Barra Infinita efectuado
en Simulink. Utilizando este modelo se logran
obtener los valores de las constantes de tiempo del
estabilizador que proporcionan una compensación
de fase adecuada. Por otro lado, la ganancia del
estabilizador se obtiene utilizando el método del
lugar geométrico de las raíces.
Para comprobar la efectividad de la sintonización
de los parámetros del PSS, se realizan simulaciones
en el dominio del tiempo con el software
computacional DIgSILENT Power Factory.
es que todas las máquinas sincrónicas interconectadas
permanezcan en sincronismo.
La habilidad que poseen las máquinas de un
sistema para permanecer en sincronismo, corresponde
a la estabilidad del ángulo del rotor. Esta estabilidad
puede romperse a través de un desvío aperiódico del
ángulo ocasionado por la falta de torque sincronizante
o por problemas de inestabilidad oscilatoria que tienen
su origen en la falta de torque de amortiguamiento.
Los estabilizadores de sistemas de potencia son
los dispositivos responsables de proporcionar una
componente de torque de amortiguamiento a las
máquinas con el fin de reducir las oscilaciones en el
sistema causadas por pequeñas perturbaciones.
El comportamiento de un sistema dinámico se
puede conocer mediante el análisis del espacio de
estado. Las variables de estado pueden ser cantidades
físicas en un sistema, como ángulo, velocidad, voltaje,
o variables matemáticas asociadas con las ecuaciones
diferenciales que describen la dinámica del sistema.
Con la solución de la ecuación característica de la
matriz de estado, se obtienen los valores propios del
sistema, los que contienen información valiosa de la
estabilidad del mismo.
Un valor propio viene dado por:
Palabras clave— Dominio del Tiempo y Frecuencia,
Estabilizadores de Sistemas de Potencia, Power
Factory, Simulink, Sintonización.
1. INTRODUCCIÓN [1]
La estabilidad de un sistema eléctrico de potencia
se puede definir como la propiedad que le permite
mantenerse en un estado de equilibrio operacional bajo
condiciones normales de operación y de regresar a un
estado aceptable de equilibrio tras sufrir una perturbación.
Por su parte, la inestabilidad en un sistema de
potencia puede manifestarse de diversas formas
dependiendo de su configuración y modo de operación.
Una condición necesaria para la operación del sistema
La parte real del valor propio σ proporciona
información acerca del amortiguamiento, mientras
que la parte imaginaria ω provee la frecuencia de un
modo de oscilación.
Cada valor propio tiene asociado un vector propio
derecho y un vector propio izquierdo. Haciendo uso
de estos vectores propios de manera simultánea se
obtiene la matriz de participación, que proporciona
una medida de la asociación entre las variables de
estado y sus modos.
271
Los modos de oscilación se diferencian de acuerdo
a rangos de frecuencia. Dentro de este trabajo, se
consideran los modos locales y los modos interárea.
1.1. Modos Locales
Los modos locales están asociados con la oscilación
de unidades en una planta de generación con respecto
al resto del sistema de potencia en el rango de 1,0 Hz
a 2,0 Hz. Están localizados en una planta o una parte
pequeña del sistema.
1.2. Modos Interárea
Los modos interárea están asociados con la
oscilación de muchas máquinas en una parte del
sistema contra máquinas ubicadas en otros lugares.
Son causados por dos o más grupos de generadores
que están interconectados por lazos débiles y oscilan
a frecuencias de 1 Hz o menores.
2. MODELO GENERADOR – BARRA INFINITA
Se considera la representación linealizada para
pequeña señal de un sistema con una máquina, como
se muestra en la Figura 1. En forma general, este
modelo representa el comportamiento dinámico de un
sistema, que incluye las relaciones electromecánicas
entre el torque de aceleración y las desviaciones de
velocidad y ángulo, el amortiguamiento de la turbina,
el torque sincronizante y la dinámica de flujo del
generador. [2]
De este modelo, se obtiene la respuesta de
frecuencia del sistema alrededor de un punto de
operación. Específicamente, se requiere conocer la
función de transferencia desde la entrada a la excitatriz
hasta la señal del torque eléctrico. Esta función de
transferencia proporciona la información acerca del
retraso de fase que existe en el sistema y por ende la
compensación que debe ser provista por el PSS.
Para obtener las constantes “K” se requiere
básicamente; los parámetros del generador, los resultados
de corridas de flujos de potencia y cortocircuitos, con los
que se obtiene el equivalente Thevenin del sistema para
representar un generador conectado a una barra infinita a
través de una línea de transmisión.
El modelo simplificado se desarrolla bajo las
siguientes consideraciones: El efecto de los devanados
de amortiguamiento es insignificante y el efecto de
saturación del hierro no es importante. Con estas
premisas se procede a simplificar las ecuaciones. Se
presenta un ejemplo de cálculo para la constante K1:
Despreciando la recistencia de la línea de
transmisión, de tiene:
Para las demás expresiones se aplica un
procedimiento similar y se remplazan ciertos términos
a fin de que las variables de las ecuaciones puedan
obtenerse fácilmente mediante una simulación del
sistema de potencia.
Figura 1: Modelo Generador – Barra Infinita considerando
AVR y PSS de doble entrada
El parámetro
se refiere a la reactancia de la línea
de transmisión que conecta al generador con la barra
infinita. Este valor se obtiene mediante el equivalente
Thevenin del sistema realizando un análisis de
cortocircuitos en la barra del generador considerado.
272
esto se realiza un análisis modal utilizando el
programa Power Factory de DIgSILENT, que
permite conocer los valores propios de un sistema
y los factores de participación de los generadores
en determinado modo.
Los valores propios permiten conocer los modos
de oscilación presentes en el sistema y si estos
modos se encuentran bien o mal amortiguados. En
otras palabras, permite conocer si se requiere o no la
implementación de un PSS en el sistema.
Por otro lado, a través de los factores de
participación se puede conocer la forma en la que se
encuentran oscilando los generadores de un sistema.
Adicionalmente, a través de esta información se llega
a tener un indicio acerca de la ubicación de un PSS.
Esta información se confirma a través de la respuesta
de frecuencia de los generadores candidatos,
incorporados al modelo Generador – Barra Infinita.
Un buen enfoque, involucra la instalación del
PSS en el generador en el que se obtiene la mayor
descompensación de fase.
3. METODOLOGÍA DE SINTONIZACIÓN DEL PSS
Se describe la metodología para sintonizar los
parámetros del PSS que utiliza como entrada la integral
de la potencia de aceleración, como se indica en la Figura
2. Esta señal se obtiene mediante el tratamiento de las
señales de velocidad y potencia eléctrica.
El primer paso para sintonizar los parámetros
de un PSS es conocer el comportamiento de un
sistema sin la presencia del estabilizador. Para
Figura 2: Diagrama de bloque del estabilizador del sistema de potencia PSS2A
Una vez seleccionado el generador en el que se
conoce que la instalación del PSS tendrá el mayor
efecto, se procede a la sintonización de parámetros.
-18.68 MW
-38.97 Mvar
10.86 %
Carga Gen..
Load A
18.80 MW
22.00 Mvar
10.86 %
232.95
1.01
147.25
27.67 MW
1.87 Mvar
8.09 %
G
~
G3
85.00 MW
-11.20 Mvar
66.98 %
85.00 MW
-11.20 Mvar
55.76 %
Bus 3
90.00 MW
30.00 Mvar
236.04
1.03
148.56
Load B
-46.48 MW
-23.87 Mvar
20.36 %
T1
Bus 4
-27.53 MW
-17.54 Mvar
8.09 %
Line 6
Line 1
100.00 MW
50.00 Mvar
14.14
1.02
5.91
237.49
1.03
153.21
Bus 9
Line 5
Bus 6
0.00 MW
0.00 M..
-85.00 MW
15.30 Mvar
55.76 %
63.96 MW
-18.46 Mvar
16.18 %
21.04 MW
3.16 Mvar
7.96 %
Load C
-20.96 MW
-24.48 Mvar
7.96 %
-79.04 MW
-10.52 Mvar
19.69 %
233.76
1.02
152.14
Line 2
Bus 7
Bus 2
229.68
1.00
147.84
T3
-62.47 MW
-12.46 Mvar
16.18 %
-81.32 MW
-11.03 Mvar
20.63 %
Bus 5
Line 4
Bus 8
83.45 MW
-9.64 Mvar
20.63 %
-163.00 MW
10.31 Mvar
79.56 %
Line 3
236.09
1.03
155.26
163.00 MW
5.52 Mvar
79.56 %
163.00 MW
5.52 Mvar
84.94 %
T2
18.45
1.02
10.81
~
G
G2
79.55 MW
-0.67 Mvar
19.69 %
100.00 MW
35.00 Mvar
DIgSILENT
La Figura 3, muestra el sistema de prueba empleado
para realizar la sintonización del PSS.
46.48 MW
25.36 Mvar
20.36 %
Bus 1
17.16
1.04
0.00
46.48 MW
25.36 Mvar
21.39 %
G
~
G1
Nodos
Ramas
Tensión Línea-Línea, Magnitud [kV] Potencia Activa [MW]
Tensión, Magnitud [p.u.]
Potencia Reactiva [Mvar]
Tensión, Ángulo [deg]
Nivel de Carga [%]
DIgSILENT
Nine-Bus System
Prefault Condition
PowerFactory 13.2.339
Figura 3: Sistema de prueba de nueve barras
273
Anexo:
Nine_Bus
3.1. Sintonización de las Etapas de Compensación
La respuesta de frecuencia del sistema en ausencia
del PSS, indica cual es la compensación de fase que
debe ser provista por este dispositivo. La respuesta
típica de frecuencia de los bloques de compensación
de un PSS se muestra en la Figura 4.
La respuesta de frecuencia del PSS debe proveer
una compensación de fase adecuada al sistema. Esto
se logra a través del ajuste de las constantes de tiempo
tomando en cuenta los conceptos de frecuencia centro
y razón entre dichas constantes, ecuaciones (11) y
(12). Una mala sintonización puede ocasionar una
sobrecompensación en el sistema que se deriva en un
problema de inestabilidad.
La respuesta de frecuencia del sistema compensado
debe presentar un ligero retraso de fase. Con esto, se
logra que el PSS además de aportar con la componente
de torque de amortiguamiento, introduzca al sistema
una componente adicional de torque sincronizante.
propios hacia la parte positiva del plano s, se obtiene lo
que se conoce como la ganancia de inestabilidad. En un
PSS con entrada de potencia, la ganancia que proporciona
el máximo amortiguamiento es la octava parte del valor
de esta ganancia de inestabilidad. [3]
4. SINTONIZACIÓN DE LOS PARÁMETROS
DEL PSS
En este apartado se expone la sintonización de los
parámetros de un PSS2A para un sistema de prueba de
tres generadores, aplicando la metodología descrita en 3.
4.1. Análisis del Sistema sin PSS
A través del análisis modal efectuado en el sistema
de prueba se obtienen los resultados de las Figuras.
5 y 6, correspondientes a los valores propios y los
factores de participación respectivamente.
A través de esta información se observa que el
valor propio 16 y su conjugado, el valor propio 17,
tienen una frecuencia de oscilación de 2,059 Hz y una
razón de amortiguamiento de 4,93%, lo que podría
considerarse como un amortiguamiento pobre.
Adicionalmente, se puede observar, en base a la
participación de los generadores, que el generador
1 se encuentra oscilando contra los generadores
2 y 3. Dado que los generadores 1 y 2 tienen la
mayor participación en estos modos, deben ser
considerados como candidatos para la instalación
de un PSS.
Figura 5: Valores propios del sistema de prueba
Figura 4: Respuesta de frecuencia de los bloques de
compensación de fase de un PSS
3.2. Sintonización de la Ganancia
Para obtener la ganancia del estabilizador se utiliza
el método del lugar geométrico de las raíces.
Incrementando paulatinamente el valor de la ganancia,
hasta evidenciar una condición de inestabilidad en el
sistema en la cual se observe la migración de los valores
Figura 6: Participación de los generadores en el sistema de
prueba
Del análisis de respuesta de frecuencia, realizado en
el modelo de la Figura 7, se obtiene que el generador
2 es la mejor alternativa para colocar un PSS.
274
El diagrama de Bode se obtiene a través de un proceso
de linealización en el modelo implementado en Simulink.
Se puede llegar a obtener la misma información,
conociendo la función de transferencia del sistema. Sin
embargo, este proceso resulta mucho más complicado. La
Figura 7 muestra el modelo Generador – Barra Infinita,
implementado en el software.
Como se puede observar, se tiene un retraso de
fase de aproximadamente 55° alrededor de los 2 Hz.
Con la compensación de fase provista por el PSS se
obtiene la respuesta de la Figura 9.
Figura 9: Respuesta de frecuencia del sistema compensado
Figura 7: Modelo implementado en Simulink
Para obtener los valores de las constantes “K” se
utiliza una hoja de cálculo, donde se consideran los
parámetros del generador, potencia suministrada,
voltaje en las barras, etc. Los resultados obtenidos de
estas constantes se muestran en la Tabla 1.
Tabla 1: Constantes del Modelo Generador – Barra Infinita
Valor
K1
1,84406213
K2
0,9054827
K3
0,2214364
K4
1,34916922
K5
-0,0499917
K6
0,44910418
Una vez establecida la compensación de fase
adecuada, se procede con la sintonización de la
ganancia. Al incrementar este valor paulatinamente,
se observa que la migración de valores propios
hacia la parte positiva del plano real se consigue
con una ganancia de 1,6. Entonces, la ganancia que
proporciona el máximo amortiguamiento en el PSS
es de 0,2.
Esta condición de inestabilidad, se observa en
la Figura 10. Vale indicar, que la ganancia de
inestabilidad es el mínimo valor con el cual se observa
valores propios con partes reales positivas.
Al ingresar estas constantes en el modelo
implementado en Simulink, se obtiene la respuesta de
frecuencia de la Figura 8.
34.714
DIgSILENT
Parámetro
Las constantes de tiempo de los bloques de
compensación de fase con los que se logra esa
respuesta son: T1=T3=0,27 y T2=T4=0,09. Cabe
mencionar que los parámetros de los filtros pueden
encontrarse dentro del rango entre 1 y 20 s.
Parte imaginaria [rad/s]
20.828
6.9428
-2. 57E +2
-2.06E +2
-1. 54E +2
-1.03E +2
Parte real [1/s]
-5.15E +1
-6.9428
-20.828
-34.714
Valores propios estables
Valores propios inestables
DIgSILENT
Nine-bus system
Three-Cycle Fault near bus 7, disconnection of bus7-bus5 line
Gráfica Valores Propios(1)
G2: Mag-A-Stat Voltage Controller
Figura 10: Valores propios para la ganancia de inestabilidad
Ks1=1,6
Figura 8: Respuesta de frecuencia del sistema de prueba sin PSS
275
Para comprobar la efectividad de la metodología
de sintonización de los parámetros del estabilizador,
en la Figura 11, se presentan los valores propios del
sistema en presencia del PSS.
establecimiento de las señales, así como también en el
sobre impulso de las mismas.
Figura 11: Valores propios del sistema en presencia del PSS
En base a los nuevos valores propios del sistema,
se puede observar que todos los modos se encuentran
bien amortiguados.
Figura 13: Potencia eléctrica de los generadores tras falla
trifásica
Adicionalmente, se realizan simulaciones en el
dominio del tiempo considerando dos escenarios,
prestando especial atención al escenario que
representa la estabilidad de pequeña señal. Dentro
de cada simulación se presentan los valores que
permiten calcular los índices de desempeño,
específicamente, el tiempo de establecimiento y el
sobre impulsó de las señales.
4.2. Incremento de carga
Este escenario plantea una pequeña perturbación en
el sistema, asociada con el incremento de carga en una
de sus barras. Se puede observar en los resultados,
que la instalación del PSS logra amortiguar las
oscilaciones presentadas de manera efectiva.
Figura 14: Potencia de salida del PSS tras incremento de carga
En la Figura 14, se muestra la señal de salida del PSS
conjuntamente con la señal de la potencia eléctrica
del generador 2. Con esta figura se busca ilustrar
el comportamiento del PSS frente a la presencia de
oscilaciones y el efecto final que produce sobre las
señales del sistema.
4.3. Falla Trifásica
Un PSS está diseñado específicamente para corregir
los problemas de inestabilidad oscilatoria en un sistema,
asociados con pequeñas perturbaciones. Sin embargo,
este dispositivo también logra amortiguar efectivamente
las oscilaciones ocasionadas por grandes perturbaciones.
Figura 12: Potencia eléctrica en las líneas de transmisión tras
incremento de carga
Se puede observar que al incorporar un PSS se
produce una reducción considerable en el tiempo de
Dado que la perturbación de falla trifásica en el
sistema es mucho más considerable, de la misma
manera se observan oscilaciones de mayor magnitud
en las variables del sistema de potencia.
276
5. CONCLUSIONES Y RECOMENDACIONES
La inestabilidad de ángulo en sistemas de potencia
puede tener su origen en la falta de torque sincronizante,
o en la falta de torque de amortiguamiento. La falta
de torque sincronizante se puede corregir mediante la
aplicación de reguladores automáticos de voltaje. Sin
embargo, estos dispositivos son los causantes de la
falta de torque de amortiguamiento.
Los valores propios de un sistema permiten conocer
los modos de oscilación existentes en el mismo y si
estos modos están o no bien amortiguados.
La ubicación óptima del PSS se determina mediante
el análisis conjunto de los factores de participación
de los generadores del sistema y la respuesta de
frecuencia en el modelo Generador – Barra Infinita.
Figura 15: Potencia eléctrica en las líneas de transmisión tras
falla trifásica
Con el modelo Generador - Barra Infinita resulta
evidente que sólo se realiza la sintonización del PSS
para un modo de oscilación local. Esto se debe a que
de por sí, el modelo considera solamente un generador
y una barra infinita, es decir, un generador oscilando
contra el resto del sistema.
Los modos de oscilación en un sistema de potencia
pueden constituir un problema al tener un pobre
amortiguamiento, lo que se traduce en un tiempo de
decaimiento muy grande.
REFERENCIAS BIBLIOGRÁFICAS
[1] KUNDUR Prabha, Power System Stability and
Control, McGraw – Hil, 1994.
Figura 16: Potencia eléctrica de los generadores tras falla
trifásica
De manera análoga, en la Figura 17, se muestra la señal
de salida del PSS. Se puede apreciar un pequeño corte en
la señal. Esto se debe a los limitadores del estabilizador,
que evitan excursiones indeseables de voltaje.
[2] MURDOCH A., VENKATARAMAN S.,
LAWSON R.A., PEARSON W.R., Integral
of Accelerating Power Type PSS, Part 1 &
2, IEEE Transactions on Energy Conversion,
1999.
[3] BIKASH Pal, BALARKO Chaudhuri, Robust
Control in Power Systems, Springer, 2005.
[4] KUNDUR P., KLEIN M., ROGERS G.J.,
Application of Power System Stabilizers
for Enhancement of Overall Systems, IEEE
Transactions, 1999.
[5] TANG Bixiang, Parameter Tuning and
Experimental Results of Power System
Stabilizer, Tesis de Maestría, 2011.
[6] IEEE COMMITTEE REPORT, Excitation System
Models for Power System Stability Studies, IEEE
Figura 17: Potencia de salida del PSS tras falla trifásica
277
Transactions on Power Apparatus and Systems,
1981.
[7] BÉRUBÉ G.R., HAJAGOS L.M., Accelerating
- Power Based Power System Stabilizers,
2007.
[8] PADIYAR K.R., Power System Dynamics
Stability and Control, BS Publications, 2008.
[9] ANDERSON P.M., FOUAD A.A., Power
System Control and Stability, IEEE PRESS,
2003.
Pablo Verdugo Rivadeneira.- Nació
en la ciudad de Quito en 1987.
Realizó sus estudios secundarios en
el Colegio Nacional Experimental
Juan Pío Montufar y sus estudios
superiores en la Escuela Politécnica
Nacional, donde se gradúo de
Ingeniero Eléctrico en el año 2012. Actualmente trabaja
en la Dirección de Planeamiento del Centro Nacional de
Control de Energía.
Jesús Játiva Ibarra.- Realizó sus
estudios superiores en la Escuela
Politécnica Nacional de Quito,
donde se graduó de Ingeniero
Eléctrico, en 1981. Realizó
estudios de postgrado en la
Universidad de Texas en
Arlington de Estados de Unidos
de América, donde obtuvo el grado de Master of
Science in Electrical Engineering en 1988, y
posteriormente el título de Doctor of Philosophy en
1991. Cuenta con más de treinta años de experiencia
en actividades de Planificación, Operación,
Administración y Economía de sistemas eléctricos de
potencia. Actualmente es Profesor Principal de la
Escuela Politécnica Nacional.
278
2013
Desarrollo de un Convertidor Electrónico Multinivel para Aplicaciones
de Compensación de Potencia Reactiva
J.C. Viola †
†
F. Quizhpi ‡
Dpto. Electrónica y Circuitos, Universidad Simón Bolívar, Caracas, Venezuela. Investigador
‡
Proyecto Prometeo, Universidad Politécnica Salesiana, Cuenca, Ecuador.
Resumen— El trabajo presenta el proceso
completo de diseño y construcción de un
convertidor electrónico de potencia de 9 niveles
en configuración cascada, destinado para su uso
como compensador estático de potencia reactiva
en instalaciones industriales trifásicas. El
trabajo abarca el dimensionamiento y montaje de
la etapa de potencia compuesta por 24 módulos
de transistores bipolares de compuerta aislada
(IGBTs) de 150A y 1 200V cada uno y por 3
disipadores de aluminio, como así también todo el
diseño y desarrollo de las tarjetas de adquisición,
disparo y control necesarias para manejar el
convertidor a lazo cerrado. Las tarjetas de
adquisición se diseñaron utilizando sensores de
efecto Hall para tensión y corriente y transmisión
de datos por fibra óptica para asegurar aislación
entre la tarjeta de control y la etapa de potencia.
Para el control del convertidor de diseñó
una tarjeta basada en un arreglo de lógica
programable (FPGA) interconectada con un
procesador digital de señales (DSP) que permite
la alta velocidad de procesamiento requerida
para probar distintas técnicas de control. El
convertidor es controlado por modulación de
ancho de pulso (PWM) conmutando a una
frecuencia de 10kHz y pudiendo ser conectado a
tensiones de hasta 3kV.
Palabras
clave—
Convertidor
multinivel,
compensación de potencia reactiva, modulación
de ancho de pulso.
1. INTRODUCCIÓN
Existen numerosas aplicaciones en las que
se utilizan los convertidores electrónicos como
compensadores de factor de potencia, siendo las
primeras propuestas en las décadas del 50 y 60.
Estas utilizaban el rectificador controlado de silicio
(SCR) como elemento para conmutar condensadores
o inductores, en paralelo o en serie con la carga y
lograr mejoras en el factor de potencia global de una
línea [1][2].
Con la aparición de los transistores de potencia los
cuales podían ser conmutados a mayores frecuencias
aparecen las aplicaciones que hacen uso de la
modulación de ancho de pulso (PWM) permitiendo
una variedad mucho mayor de técnicas de control y la
posibilidad de lograr ajustes mucho más precisos en
el factor de potencia. Los primeros transistores en ser
utilizados en la década del 60 y 70 son los bipolares
(BJT), siendo lentamente desplazados a partir de los 80 y
90 primeramente por los transistores de efecto de campo
(MOSFET) y posteriormente y hasta la actualidad por los
bipolares de compuerta aislada (IGBT).
Los IGBT comerciales de hoy en día soportan
tensiones de operación entre los 100V y los 1700V,
siendo la versión comercial más difundida la que
opera a 1 200V. En cuanto a su capacidad para
manejo de corriente oscilan entre 40A y más de
600A. Para aplicaciones en las que el convertidor
electrónico opere conectado a tensiones de línea
relativamente bajas (i.e. 110V, 220V) se emplean
configuraciones denominadas de 2 niveles, con solo
2 IGBT por cada fase que se desea compensar. Para
aquellas aplicaciones de corrección de factor de
potencia donde el convertidor electrónico compuesto
por IGBT deba conectarse a tensiones de línea que
superen las tensiones de operación de éstos, deben
utilizarse configuraciones multinivel las cuales
consisten en agrupaciones seriales de módulos IGBT
de manera de que logren soportar la tensión total de
trabajo que impone la línea en particular [3]. Existen
numerosas topologías multinivel propuestas entre
las que se cuentan la de acoplamiento de diodo, la
de acoplamiento de condensador, celdas en cascada,
etc. En particular la topología en cascada resulta más
atractiva porque permite ser escalada fácilmente a
configuraciones con más niveles y porque utiliza un
mismo tipo de componente electrónico [3][4].
La utilización de configuraciones multinivel trae
acarreada una ventaja adicional que es la mayor cantidad
de estados de conmutación disponibles, lo que permite
una mejora en el control general del sistema, logrando
mejores compensaciones de factor de potencia que las
obtenidas con convertidores de IGBT de solo 2 niveles.
279
Dada la mayor cantidad de niveles disponibles puede,
inclusive, obviarse la necesidad de realizar modulación
por ancho de pulso, obteniéndose igualmente buenos
resultados y disminuyendo los requerimientos de
hardware de la tarjeta de control. Las configuraciones
multinivel tienen como contra, sin embargo, de que se
requiere sensar una cantidad de variables de corriente y
tensión mayor que las requeridas en una configuración
de 2 niveles, aunque con métodos de estimación puede
obviarse la medición de algunas variables y utilizar sus
valores estimados.
2.1. Etapa de potencia
Como tendencia general en el control de convertidores
multinivel se observa entonces la necesidad de tarjetas
de adquisición con más canales y tarjetas de control
con procesadores digitales de señal (DSP) que tienen
una mayor capacidad de procesamiento de los datos
adquiridos para entonces calcular la acción de control
correspondiente [4]. En el presente trabajo se presentan
los pasos para el diseño de un convertidor electrónico
trifásico multinivel con capacidad de ser conectado a
tensiones de hasta 1 200V, manejando corrientes de
hasta 150A, con un manejo total de potencia de 10kW.
En la Figura 1 se muestra el diagrama de bloques que
resume las distintas etapas que componen al convertidor.
Cada uno de estos bloques fue diseñado íntegramente en
Ecuador demostrando que es viable desarrollar este tipo
de tecnologías y que el camino queda abierto para futuros
emprendimientos que deseen ahondar en el tema.
La configuración en cascada elegida se muestra en
la Figura 2, donde solo se muestra una rama de las 3
que componen al convertidor. En este caso se decidió
construir una configuración de 9 niveles que permite
fácilmente ser escalada a un número mayor de niveles
simplemente agregando más puentes H en cascada.
El número de niveles escogido está de acuerdo a los
estándares usados en la industria actualmente [4].
El presente trabajo se divide de la siguiente
manera: en la sección 2 se muestra la metodología de
diseño utilizada para dimensionar las distintas partes
que componen al convertidor multinivel, incluyendo
el modelado tridimensional de las partes mecánicas
más importantes y el diseño circuital de las tarjetas
de circuitos. En la sección 3 se presenta el ensamblaje
de las distintas partes del convertidor y se presenta
el producto terminado. La sección 4 desarrolla los
trabajos futuros que se pretenden llevar a cabo con
el convertidor, fundamentalmente en el área de la
compensación de energía reactiva y el control de
máquinas eléctricas. Finalmente la sección 5 presenta
las conclusiones y recomendaciones de los autores.
2. METODOLOGÍA DE DISEÑO
De las distintas topologías reportadas para
convertidores multinivel la configuración de puentes
H en cascada es la que ofrece mayor escalabilidad y
puede ser construida con un mismo tipo de dispositivo
de potencia. Otras topologías como la de acoplamiento
por diodo o acoplamiento por condensador son
preferibles para configuraciones de pocos niveles (3
a 5), pero para mayor cantidad de niveles se vuelven
más complejas y más caras de construir [4][5].
Figura 1: Diagramación de bloques de convertidor multinivel
A cada puente H se le denomina también
celda y como se observa cada celda posee un
condensador asociado que actúa como reserva local
de energía. Dependiendo del tipo de aplicación
para la que se utilice el convertidor el valor de la
capacitancia puede variar, en este caso se optó por
un condensador electrolítico de 2 200uF x 450V, el
cual es un estándar industrial que se caracteriza por
su relativo bajo costo.
Basándonos en el diagrama de la Figura 1 puede
observarse que el funcionamiento de todo el sistema
gira en torno a la etapa de potencia y se comenzó,
en consecuencia, primeramente por el diseño de ésta,
realizándose posteriormente el diseño de las tarjetas
de sensores, drivers y control.
280
1 700V, son al día de hoy poco usados debido a su
precio, quedando restringido su uso a aplicaciones
muy específicas. La Figura 3(b) muestra una vista
del modelo tridimensional realizado para el módulo
IGBT en base a las dimensiones físicas dadas por el
fabricante.
(a)
(b)
Figura 3: (a) Modelo mecánico del condensador
E36D451HPN222MCE3M. (b) Modelo mecánico del módulo
IGBT SKM150GB12T4-SEKG.
Figura 2: Circuito esquemático de una de las ramas del
convertidor
El modelo elegido es el E36D451HPN222MCE3M
del fabricante United Chemi-Con [6] y en base a
las especificaciones de la hoja de datos dada por el
fabricante se realizó el modelado tridimensional de
este componente el cual se muestra en la Figura 3(a).
Los conmutadores elegidos son módulos dobles
de IGBT, los cuales tiene la ventaja de ser más
fáciles de encender y apagar en comparación a otros
dispositivos como BJT o SCR. Los módulos elegidos
fueron los SKM150GB12T4-SEKG del fabricante
Semikron, teniendo como características principales
las de soportar una tensión de bloqueo de 1 200V y
una corriente máxima de 150A [7]. La tecnología
de semiconductores para operar con estas tensiones
es la más desarrollada y resulta por lo tanto la más
económica. Si bien existen dispositivos IGBT de
Los módulos IGBT escogidos son diseñados por el
fabricante para poder ser montados mediante tornillos
directamente a un disipador sin necesidad de material
aislante. Se escoge por lo tanto un disipador realizado
en aluminio extruido diseñado específicamente para este
tipo de módulos el cual incluye las ranuras necesarias
para deslizar los tornillos que harán la fijación mecánica.
Estos perfiles de aluminio son fabricados por unas pocas
empresas alrededor del mundo y se eligió por costo y
servicio el modelo MM12878 del fabricante Alexandria
Industries. Este modelo de disipador es fabricado en
barras de 8 pies de longitud y se solicitaron 3 piezas
cortadas de 500mm cada una, de manera de que hubiera
espacio suficiente para alojar los 8 módulos de IGBT que
componen cada rama. En base a las dimensiones dadas
por el fabricante se realizó el modelado tridimensional del
disipador una de cuyas vistas se muestra en la Figura 4.
281
Una vez determinados los componentes que iban
a ser utilizados para la etapa de potencia se procedió
a ensamblar todo en único modelo tridimensional de
manera de descartar eventuales incompatibilidades de
forma o tamaño obteniéndose el esquema que se observa
en la Figura 5, donde se muestra el aspecto que tendría una
de las tres ramas que componen al convertidor. La unión
de los módulos se realizó con barras rígidas de manera
de que sirvan de soporte mecánico a los condensadores
asociados a cada bus CC.
desean medir: 12 tensiones correspondientes a los 12
buses CC de las 3 ramas del convertidor, 3 tensiones
alternas del sistema trifásico al cual eventualmente
pueda conectarse el convertidor, 3 corrientes alternas
que circulen por las ramas del convertidor y 3
corrientes alternas que circulen por alguna carga en
paralelo al convertidor. Esta última condición es típica
en aplicaciones en las que el convertidor se utilice
como compensador paralelo de potencia reactiva. La
totalidad de variables alcanza a 21, repartidas a razón
de 7 por cada rama. Dado que el convertidor puede
ser extendido con relativa facilidad a una versión de
11 niveles agregando una celda más a cada rama se
decidió contemplar esta eventual expansión a futuro y
se decidió diseñar la tarjeta de sensores considerando
8 variables a ser medidas por cada rama.
Como las variables a ser medidas son tensiones
y corrientes relativamente altas se debe asegurar
una aislación total entre el circuito de medición y el
resto del sistema. Para atender este requerimiento se
incluyeron 2 niveles de seguridad en el diseño de la
tarjeta realizando el sensado de las variables mediante
sensores de efecto Hall y transmitiendo los datos
digitales convertidos mediante fibra óptica, evitando
en todo momento conexiones galvánicas entre la tarjeta
y la etapa de potencia y entre la tarjeta y el resto de los
bloques que componen el sistema. Además de ésto el
diseño incluyó un convertidor analógico-digital de 8
canales con una resolución de 14 bits. Todo el diseño
circuital fue realizado mediante el software Altium y
en la Figura 6 se muestra el aspecto de la tarjeta antes
de ser enviada para su manufacturación.
Figura 4: Modelo mecánico del disparador MM12878
Figura 5: Modelado de una rama del convertidor multinivel
Figura 6: Vista del diseño de la tarjeta de sensores
2.2. Tarjeta de sensores
Las tarjetas de sensores están a cargo de la medición
y conversión analógica a digital de las variables de
tensión y corriente eléctrica. Para computar la cantidad
de canales de medición y conversión que se requieren
se tomaron en cuenta las siguientes variables que se
2.3. Tarjeta de drivers
Las tarjetas de drivers tienen 2 funciones
principales: aislar galvánicamente los circuitos
de control de la etapa de potencia y amplificar
los pulsos enviados por la etapa de control para
282
que tengan la suficiente intensidad para poder
encender y apagar los IGBT. Tomando en cuenta
estas consideraciones se diseñaron estas utilizando
convertidores CC-CC aislados, asegurando
tensiones de aislación de hasta 3 000V entre la
etapa de potencia y la etapa de control. Para el
manejo de los pulsos de disparo se utilizó el driver
HCPL-316J del fabricante Agilent, especialmente
diseñado para módulos de IGBT tales como los
utilizados en este desarrollo. Cada tarjeta de
drivers se diseñó con 4 canales independientes
de manera de que cada una maneje una celda
completa, requiriéndose 4 tarjetas por cada rama
del convertidor. Igualmente al caso de la tarjeta
de sensores el diseño se realizó con Altium y el
modelado obtenido previo a su manufacturación se
muestra en la Figura 7.
La otra importante tarea que realiza la FPGA es la
conversión serial a paralelo de los datos que llegan
desde las tarjetas de sensores a través de las fibras
ópticas. Dado que nuevamente esta es una tarea
que consume tiempo y que debe ser realizada en
simultáneo para 24 canales de datos a la vez, se la
delega a la FPGA la cual entregará al procesador 24
datos de 14 bits en formato paralelo todos al mismo
tiempo. En este caso el modelo elegido de 208 pines
da suficiente margen para la implementación física de
estas líneas, quedando incluso algunos pines libres
para funciones extras que puedan requerirse a futuro.
Al igual que para el resto de las tarjetas el diseño se
realizó con Altium y una vista del modelo final para la
tarjeta se muestra en la Figura 8. Dada la complejidad
de este diseño se optó por una tarjeta de 4 capas en
la que se usaron las 2 capas internas para planos de
tierra y para las tensiones de 1.2V, 2.5V, 3.3V y 5V
requeridas por la FPGA y sus periféricos.
Figura 7: Vista del diseño de la tarjeta de drivers
2.4. Tarjeta de control
La tarjeta de control tiene a su cargo la generación
de los disparos para el control del convertidor. La
técnica más comúnmente usada para el control
de convertidores es la PWM, la cual consiste en
conmutar los IGBT a una frecuencia fija pero variando
el porcentaje de tiempo en que cada conmutador
permanece encendido o apagado. Dado que esta es
una tarea que insume mucho tiempo al procesador
encargado del control, se decide delegar esta función
en un FPGA el cual puede ser programado para realizar
múltiples operaciones en paralelo. De los múltiples
modelos de FPGA disponibles en el mercado se
decide utilizar el XC3S500E-4PQ208C de Xilinx que
tiene como características principales poseer 500 000
compuertas y 208 pines. Por pruebas previas hechas
con tarjetas de desarrollo del fabricante Xilinx se
sabe que ese número de compuertas es suficiente para
alojar toda la lógica correspondiente a las 48 salidas
de disparo requeridas para controlar el convertidor.
Figura 8: Vista del diseño de la tarjeta de control
El procesador utilizado es un ADSP-21369
del fabricante Analog Devices que tiene como
características más resaltantes el de operar a 450MHz
y trabajar con variables de 32 bit de tipo punto
flotante. El fabricante ofrece la tarjeta de desarrollo
21369-EZ-Kit Lite [8] que incluye el ADSP-21369
y por lo tanto se diseñó la interfaz de la tarjeta de
control de manera de poder acoplarla a la 21369-EZKit Lite. De esta manera el DSP puede enviar los
comandos de PWM a la FPGA directamente usando
los buses de dirección y datos e igualmente puede leer
los datos convertidos de serie a paralelo. La acción
de comando y la posterior realimentación permiten
llevar a cabo controles a lazo cerrado en los cuales el
DSP irá calculando en tiempo real la mejor acción a
tomar siguiendo una ley de control que dependerá del
algoritmo que se esté probando.
283
3. ENSAMBLAJE DEL SISTEMA
Una vez terminado el diseño de las distintas
tarjetas y ya elegidos los componentes que
conforman la etapa de potencia se adquirieron
todos los materiales y se ordenó la manufactura de
las tarjetas de circuito impreso. Los componentes
fueron montados localmente en los Laboratorios
de la Universidad Politécnica Salesiana, con la
ayuda puntual del Laboratorio de Electrónica de
la Universidad Simón Bolívar de Venezuela, que
prestó su apoyo gratuitamente para la soldadura de
los componentes de montaje superficial. Cada tarjeta
fue probada posteriormente al ensamblaje para
determinar su correcto funcionamiento. En las Figs.
9(a) y 9(b) se muestran las fotografías de una de las
tarjetas de sensores y una de las tarjetas de drivers
ya terminadas.
maximiza la transferencia de calor entre el módulo y
el disipador ayudando a mantener el chip de silicio
a bajas temperaturas, lo cual amplía la capacidad
de manejo de potencia de todo el convertidor. Los
condensadores fueron atornillados a su vez a las
barras de cobre resultando el montaje final que se
muestra en la Figura 10.
Figura 10: Imagen de la etapa de potencia correspondiente a
las 3 ramas del convertidor
(a)
4. TRABAJOS FUTUROS
La construcción de esta plataforma de hardware
es apenas el primer paso requerido para poder
desarrollar una variedad inmensa de aplicaciones
industriales y académicas, las cuales requieren tener la
plataforma física donde poder probarlas. Se enumeran
a continuación las líneas principales de investigación
que se han abierto y que se deben mantener en el
tiempo, a partir del desarrollo de este equipo.
4.1. Compensación de potencia reactiva
(b)
Figura 9: (a) Tarjeta de sensores. (b) Tarjeta de drivers
Para el montaje de la etapa de potencia se requirió
fabricar previamente las barras de cobre que unen los
módulos y los condensadores. Este proceso se realizó
enteramente en los Laboratorios de Mecánica de la
UPS. Se agregó pasta térmica a la parte posterior
de cada módulo IGBT antes de fijarlos al disipador
mediante tornillos y tuercas. El uso de la pasta
La topología del convertidor desarrollado permite
básicamente dos configuraciones posibles en las que
puede operar como compensador de potencia reactiva:
en paralelo y en serie.
Para cualquiera de ellas el desafío consiste en controlar
la etapa de potencia de acuerdo a distintos criterios
para que la acción del convertidor logre eliminar los
componentes reactivos de corriente que alguna carga
no lineal impone a la línea. Los métodos de control
284
más utilizados son el control directo de potencia y el
control directo de corriente, teniendo cada uno de éstos
numerosas variantes las cuales requieren ser analizadas
para determinar cual resulta más apropiada para cada
caso de compensación en particular.
4.2. Control de máquinas eléctricas
En este caso el convertidor se utiliza en configuración
inversor en la cual cada bus CC es alimentado mediante
una fuente externa y a partir de la cual se obtiene un
sistema trifásico de tensiones con amplitud y frecuencia
variable. Esta configuración permite controlar distintos
los tipos de máquinas más comunes en el ambiente
industrial y de laboratorio tales como máquinas de
inducción, máquinas sincrónicas, máquinas de continua,
etc. Igualmente al caso de las aplicaciones de control
de potencia reactiva la plataforma es suficientemente
flexible para aceptar cualquier algoritmo de control que
el usuario desee programar.
AGRADECIMIENTOS
Los autores desean agradecer a la Universidad
Politécnica Salesiana y al Proyecto Prometeo –
SENESCYT por el apoyo económico e institucional
brindado al proyecto. Adicionalmente desean agradecer a
los estudiantes de Ingeniería Electrónica de la Universidad
Politécnica Salesiana Sede Cuenca: Danny Peñafiel, Paul
Ramón, Tatiana Suquilanda y Marlon Idrovo, quienes
han colaborado en el marco de sus proyectos de tesis con
actividades complementarias a este proyecto.
REFERENCIAS BIBLIOGRÁFICAS
5. CONCLUSIONES Y RECOMENDACIONES
El trabajo presenta los pasos seguidos para el
desarrollo íntegro de un convertidor electrónico
multinivel incluyendo la etapa de potencia y todo el
hardware necesario para su control. Puede afirmarse
con total certeza que es el primer trabajo de esta
magnitud que se emprende en el Ecuador lográndose
obtener un producto cuya operación aún debe ser
probada pero que lo colocan por características de
diseño a la altura de productos comerciales fabricados
por las empresas líderes en el área.
La plataforma desarrollada tiene además una
ventaja fundamental sobre versiones comerciales y
es que otorga total libertad al usuario para programar
los algoritmos de control que desee probar, ya que
el código utilizado para programar el DSP lo define
el usuario y de ahí la posibilidad de probar técnicas
novedosas y no reportadas al día de hoy. Esto
contrasta con el caso de convertidores comerciales
en los que solo pueden probarse aquellos algoritmos
previamente programados por el fabricante, dejando
muy pocas opciones para probar nuevas técnicas.
En conclusión la disponibilidad de esta plataforma
abre la puerta a numerosas investigaciones las cuales
deben ser llevadas adelante en forma de tesis de
pregrado y postgrado. Los autores consideran que la
mayoría de los estudios que se realicen sobre estos
temas son factibles de ser publicados en forma de
artículos científicos dada la gran actualidad que
poseen estos tópicos hoy en día en el área de la
electrónica de potencia.
285
[1] Garcia O., Cobos J.A., Prieto R., Alou P. & Uceda
J. (2001). “Power factor correction: a survey”,
IEEE 32nd Annual Power Electronics Specialists
Conference, PESC. 2001, vol. 1, pp. 8-13, USA.
[2] Dixon J., Moran L., Rodriguez J. & Domke
R. (2005). “Reactive Power Compensation
Technologies:
State-of-the-Art
Review”,
Proceedings of the IEEE, vol. 93, no. 12, pp.
2144-2164.
[3] Abu-Rub H., Holtz J., Rodriguez J. & Ge
B. (2010). “Medium-Voltage Multilevel
Converters—State of the Art, Challenges,
and Requirements in Industrial Applications”,
Industrial Electronics, IEEE Transactions on,
vol. 57, no. 8, pp. 2581-2596.
[4] Malinowski M., Gopakumar K., Rodriguez J.
& Ṕrez M.A. (2010). “A Survey on Cascaded
Multilevel Inverters,” Industrial Electronics,
IEEE Transactions on , vol. 57, no. 7, pp. 21972206.
[5] Rodriguez J., Jih-Sheng L. & Fang Zheng
P. (2002). “Multilevel inverters: a survey
of topologies, controls, and applications”,
Industrial Electronics, IEEE Transactions on ,
vol. 49, no. 4, pp. 724-738.
[6]
United
Chemi-Con
Condensadores
Electrolíticos Serie E36D. Disponible (online)
en: http://www.chemi-con.com/components/
com_lcatalog/uploaded/1/0/7/19624344024f6
74edd8e175.pdf
[6] Semikron Fast IGBT Semitrans Modules
Disponible
(online)
en:
http://www.
semikron.com/products/data/cur/assets/
SKM150GB12T4_22892040.pdf
[7] Analog Devices Inc. Digital Signal Processors
Disponible (online) en: http://www.analog.
com/en/processors-dsp/sharc/ADSP-21369/
products/21369-EZLITE/eb
Julio César Viola.- Nació en La
Paz (ER), Argentina, en 1975.
Está afiliado desde el año 2002 al
Departamento de Electrónica y
Circuitos de la Universidad
Simón Bolívar en Caracas,
Venezuela, siendo profesor
asociado desde el año 2008.
Obtuvo el título de Ingeniero
Electrónico en el año 2000 en la Universidad
Tecnológica Nacional, Paraná (ER), Argentina, y el
título de Doctor en Ingeniería en el año 2008 en la
Universidad Simón Bolívar, Caracas, Venezuela.
Durante todo el año 2012 ha estado en la Universidad
Politécnica Salesiana como Investigador Invitado del
Proyecto Prometeo – SENESCYT.
Sus intereses en investigación se centran en la
electrónica de potencia para el control de máquinas
eléctricas y compensación de energía reactiva,
controles neuronales y difusos y energías alternativas,
áreas en las cuales posee más de 20 artículos
científicos arbitrados.
Flavio
Alfredo
Quizhpi
Palomeque.- Nació en Cuenca,
Ecuador, en 1969. Recibió el
Título de Ingeniero Electrónico
en la Universidad Politécnica
Salesiana en el 2003, Licenciado
en Ciencias de la Educación en la
Universidad Politécnica Salesiana
en el 1999, Especialista en Educación Superior en la
Universidad del Azuay en el 2002. Actualmente
cursando el programa Doctoral en Ingeniería Eléctrica
en la Universidad Simón Bolívar de Venezuela.
Dedicado al área de investigación de los Sistemas
Eléctricos de Potencia, Confiabilidad, FACTs e
Inversores Multinivel.
286
INFORMACIÓN PARA LOS AUTORES
REQUERIMIENTOS
PREPARACIÓN Y RECEPCIÓN DE TRABAJOS TÉCNICOS
Los Autores deben presentar el resumen del artículo (máximo 200 palabras) en formato preestablecido, incluyendo los propósitos
del estudio o investigación, procedimientos básicos, las contribuciones y las conclusiones principales. Además, deben incluir el
nombre de cada Autor, la dirección del trabajo, la dirección del domicilio, los números de teléfonos y el correo electrónico.
Los Artículos serán preparados por los Autores de acuerdo con la “Guía para la Preparación y Envío de Trabajos Técnicos”, la
misma que estará accesible en la INFONET del CENACE y en la sección Publicaciones del Portal del CENACE www.cenace.org.ec.
Los Artículos serán considerados por el Grupo Técnico de Evaluación de Trabajos y sus sugerencias y recomendaciones serán
atendidas por los Autores.
Los Autores deben adjuntar una certificación de que su trabajo presentado es original e inédito. En caso de ser aceptado para la
publicación, los editores se reservan los derechos de copia del Trabajo Técnico, a fin de facilitar la distribución del material impreso;
la edición se cierra con los Artículos presentados hasta la fecha establecida.
El Resumen y el Artículo Técnico se enviarán a [email protected]
Una vez que los Trabajos Técnicos sean aprobados se publicarán en su totalidad en la Revista Técnica “energía” de la Corporación
CENACE y serán expuestos por sus Autores en la CONFERENCIA – Ecuador, en la fecha programada para el desarrollo de este
Evento.
TÍTULO
AUTOR
GESTIÓN EMPRESARIAL
EVOLUCIÓN DEL CENTRO DE OPERACIONES - UNA PROPUESTA DE ESQUEMA A LAS NUEVAS
TENDENCIAS Y DESAFÍOS EN ECUADOR..........................................................................................
RESPONSABILIDAD SOCIO - AMBIENTAL EN PROYECTOS HIDROELÉCTRICOS:EL CASO RÍO
ZAMORA – SANTIAGO............................................................................................................................
ARTÍCULOS PREMIADOS EDICIONES ANTERIORES
2008 - PRONÓSTICO DE DEMANDA PARA SISTEMAS DE SUMINISTRO DE ENERGÍA ELÉCTRICA
UTILIZANDO ALGORITMOS EVOLUTIVOS Y RAZONAMIENTO INDUCTIVO FUZZY –
DESARROLLO DE LA PLATAFORMA GRÁFICA MERLYN………………………………………..............
2009 - PAGO DE POTENCIA A TRAVÉS DE OPCIONES - PERSPECTIVAS DE APLICACIÓN AL
MERCADO ELÉCTRICO DEL ECUADOR…...........................................................................................
2010 - UNIDADES DE MEDICIÓN FASORIAL – PMU...............................................................................
2011 - CAMBIO DE PARADIGMA EN EL PRONÓSTICO DEL RECURSO HIDROLÓGICO –
INFLUENCIA DEL CAMBIO CLIMÁTICO………………………………………….......................................
2012 - PROCEDIMIENTO PARA EL CONTROL AUTOMÁTICO DE LA FRECUENCIA EN EL SISTEMA
NACIONAL INTERCONECTADO DEL ECUADOR…………………………………………………………..
2013 – METODOLOGÍA DE SINTONIZACIÓN DE PARÁMETROS DEL ESTABILIZADOR DEL
SISTEMA DE POTENCIA – PSS…………………………………………………………………...................
2013 – DESARROLLO DE UN CONVERTIDOR ELECTRÓNICO MULTINIVEL PARA APLICACIONES
DE COMPENSACIÓN DE POTENCIA REACTIVA……………………………………...............................
Pág.
Ing. Roberto Barba
215
Ing. Pablo Martínez – Ing. Juan Espinoza –
Dr. Luis Ochoa
221
Ing. Víctor Hinojosa – Wladimir Llanos
230
Ing. José Oscullo
Ing. Gustavo Araque - Ing. Roberto Barba
239
Ing. Paúl Vásquez e Ing. Pablo Guzmán
254
Dr. Marcelo Arias
260
Ing. Pablo Verdugo – Dr. Jesús Játiva
271
Ing. Julio Viola – Ing. Flavio Quizhpi
279
CENTRO NACIONAL DE CONTROL DE ENERGÍA
Panamericana Sur Km 0 y Av. Atacazo
Teléfonos: (593 2) 299 2001 / 299 2030 • Fax: (593 2) 299 2031
www.cenace.org.ec
Quito-Ecuador
247
Descargar