ARK CAICYT: http://id.caicyt.gov.ar/ark:/s18539777/cllmat3cm
ESTIMACIÓN DE LA CALIDAD DE SERVICIO Y PRODUCTO TÉCNICO EN SISTEMAS DE DISTRIBUCIÓN ELÉCTRICA DE MEDIA Y BAJA TENSIÓN INCORPORANDO LA PERCEPCIÓN DE CLIENTES RESIDENCIALES
GUSTAVO SCHWEICKARDT
CONICET/Universidad Tecnológica Nacional - FRCU, Entre Ríos, Argentina.
gustavoschweickardt@conicet.gov.ar
El problema de la Confiabilidad en los Sistemas de Distribución Eléctrica de Media Tensión es abordado por la regulación argentina (no excluyente) mediante índices adoptados internacionalmente. Los mismos responden a magnitudes medidas físicamente y son operacionalizados a partir de fórmulas bien establecidas. Tal enfoque de Medida de la Confiabilidad exhibe, al menos, tres inconvenientes: 1ro) Su aplicación es a nivel Sistema, cuando la regulación argentina –adoptada como ‘modélica’ internacionalmente- establece que la Calidad de Servicio y Producto Técnico sea medida a nivel usuario; 2do) Desde tales índices, se fija -sin base metodológica- el Costo de la Energía No Suministrada [U$D/kWh]; y 3ro) No se considera la percepción que los usuarios tienen de tal calidad. En el presente trabajo, se propone un Modelo basado en Técnicas Estadísticas de Análisis Multivariado (Componentes Principales) para definir un Índice Compuesto de Calidad de Servicio y Producto Técnico y, mediante el empleo de Técnicas Soft Computing, obtener desde este índice un Costo Intrínseco de la Calidad, referido como Costo de Falla ‘energizado’ [U$D/kWh], pero focalizado en la percepción del usuario. El Modelo propuesto se aplica sobre un Sistema de Distribución real, discutiendo sus resultados.
PALABRAS CLAVE: Análisis Multivariado – Componentes Principales - Sistemas de Distribución Eléctrica – Calidad de Servicio y Producto Técnico – Percepción de Clientes – Soft Computing – Costo Intrínseco
ABSTRACT
The problem of Reliability in Medium Voltage Electrical Distribution Systems is addressed by argentine regulation (not exclusive) through internationally adopted indices. They respond to magnitudes physically and are operationalized from well-established formulas. Such a Reliability Measurement approach exhibits at least three drawbacks: 1st) Its application is at the System level, when the Argentine regulation - adopted as 'model' internationally - establishes that the Quality of Service and Technical Product be measured at the level of client; 2nd) From these indices, the Cost of Non-Supplied Energy [U$D/kWh] is defined -without methodological basis-; and 3rd) The perception that customers have of such quality is not considered. In the present work, a Model based on Statistical Techniques of Multivariate Analysis (Principal Components) is proposed to define a Composite Index of Service Quality and Technical Product and, through the use of Soft Computing Techniques, to obtain from this index an Intrinsic Cost of Quality, referred to as 'energized' Failure Cost [US$/kWh], but focused on customer perception. The proposed Model is applied on a real Distribution System, discussing its results.
KEYWORDS: Multivariate Analysis - Principal Components - Electrical Distribution Systems - Quality of Service and Technical Product - Customer Perception - Soft Computing - Intrinsic Cost
1. INTRODUCCIÓN
Históricamente, la planificación sobre el diseño ante fallas en los Sistemas de Distribución Eléctrica en Media Tensión (SDEE MT), se ha sustentado en exigencias operativas. Las soluciones han sido formalizadas recurriendo a la experiencia de los planificadores y a ciertas formulaciones técnicas sostenidas como heurísticas o reglas de buena práctica.
Desde las últimas tres décadas, a partir de la reforma aplicada a la industria eléctrica, migrando un sistema verticalmente integrado a un esquema verticalmente segmentado (Generación, Transmisión y Distribución, al menos), en los cuerpos regulatorios comienzan a exigirse determinados índices de confiabilidad (referida, básicamente, a la continuidad del suministro). Teóricamente se sustentan en la maximización del beneficio de los agentes que integran el sistema (monopolista-distribuidor y clientes). Esta situación rige en Argentina desde 1992, a partir de la vigencia de la Ley Nacional 24065, la cual se constituye en el primer Marco Regulatorio, cuya autoridad de aplicación es el Ente Nacional de Regulación Eléctrica (ENRE), extendiéndose, con algunas particularidades de cada región, a cada Ente Provincial (EPRE), cuyo funcionamiento es autárquico según la Ley Nacional referida. Idéntica situación, es observada en la mayoría de los países. En 2003, son introducidos internacionalmente los Índices de Confiabilidad establecidos por la Norma IEEE STD 1366TM, IEEE (2003). Desde tal enfoque, el problema de diseño óptimo de la confiabilidad, particularmente en los SDEE MT, pasa a ser de naturaleza económica. Una gran cantidad de trabajos han sido publicados desde entonces, aplicando diferentes técnicas para optimizar la confiabilidad, por caso Al-Maghalseh (2018), pero sin estimar costos. En la línea de investigación del autor, pueden consultarse las propuestas en Schweickardt y Pistonesi (2010), Schweickardt y Casanova (2017) y Camargo, Schweickardt y Casanova (2018). Particularmente en estos trabajos, se presentaron técnicas de optimización determinísticas (Programación Dinámica Clásica –PDC-), posibilísticas (Programación Dinámica Difusa con Función de Transición Rígida –PDP-) y Soft Computing (HiperHeurísticas Multi-Objetivo con Función de Selección Basada en Razonamiento –Redes Neuronales Perceptrón Multicapa con Simple y Múltiple Retro-Propagación + Números Difusos). Con ello se ha intentado proponer un fundamento metodológico para valorizar (monetizar) el Costo de la Energía No Suministrada (ENS) [U$D/kWh], mediante la introducción de un concepto referido por el autor como Costo Intrínseco. Típicamente, el problema es abordado considerando el aumento en las inversiones relativas a equipos de protección y maniobra (s/p) -Interruptores, Seccionalizadores y Fusibles- y en la ubicación óptima de los mismos, a los efectos de minimizar los índices mencionados. Con ello se logra maximizar la confiabilidad minimizando el Costo (Intrínseco) de la ENS, interpretado como una penalización regulatoria ante fallas imprevistas en un SDEE MT.
Sin embargo, en todos los trabajos consultados en el estado del arte, incluyendo los referidos como aportaciones del autor, el concepto que subyace en la valorización de la ENS, la Calidad del Servicio Técnico (CS) -parámetro definido por la regulación argentina (y la de otros países de habla hispana) ante fallas en el SDEE MT, es tratado desde la óptica de quien planifica y opera el sistema. Es decir que no se contempla la percepción que los clientes tienen de la misma, como consecuencia de las interrupciones del suministro de energía no programadas por la empresa incumbente.
De este modo, más allá de la fundamentación metodológica que pueda sustentar el Costo (Intrínseco) de la ENS, no necesariamente estaría reflejando la disminución que cada usuario experimenta en su función de utilidad, vinculada a la continuidad del suministro eléctrico.
Por otro lado, para reforzar esta hipótesis, los índices mencionados se aplican a nivel SDEE MT (global) y no a nivel usuario como la regulación argentina lo establece (se hablará de Argentina, sin pérdida de generalidad).
Además, la Calidad del Producto Técnico (CPT) vinculada a la tensión (o voltaje) de suministro, si bien es medida ante el reclamo de los usuarios, difícilmente se compute como un impacto negativo en su función de utilidad (o monetariamente, como penalización regulatoria), no obstante ocasionar, frecuentemente, inconvenientes que pueden implicar hasta el daño irreparable de equipos electrodomésticos. Sin embargo, el control de este aspecto de la calidad (CPT) también debería implementarse y penalizarse a nivel usuario en Baja Tensión (BT), conforme la regulación lo establece.
El presente trabajo aborda, como se dijo, un nuevo Modelo de Medida-Optimización, que considera la percepción de la CS/CPT, a los fines de calcular un Índice Compuesto que permita definir un Costo Intrínseco ‘energizado’ [U$D/kWh], resolviendo las limitaciones del Costo Intrínseco de la ENS como indicador de un Costo de Falla. La CPT, con un voltaje tal que sus potenciales inconvenientes obligan a los usuarios a interrumpir el flujo eléctrico, puede combinarse para componer tal Índice. Será aquí referido como Índice CS/CPT. No obstante, la optimización vía Soft Computing se realice considerando la ubicación óptima de 3 tipos de equipamientos s/p sobre las secciones o tramos de los alimentadores que integran un SDEE MT, Schweickardt y Casanova (2017) y Camargo et. al. (2018), el instrumento principal será un Cuestionario, cuyas preguntas fueron realizadas a usuarios residenciales, captando la CS/CPT también en Baja Tensión (BT). La optimización Soft Computing (SoftC) del SDEE MT, se complementará con tal Instrumento de Medida de Percepción de Calidad, procesado mediante la Técnica Estadística (Multivariada) de Análisis de Componentes Principales (ACP), y una estrategia de agrupación de dichas CP en Dimensiones pertinentes (CP+DIM). Será así definido un Índice Compuesto y se calculará desde el mismo el Costo Intrínseco de la CS/CPT referido.
Es decir que el Modelo propuesto tendrá dos partes secuenciales y complementarias (Etapas): 1era) Estimación del Índice Compuesto CS/CPT → (CP+DIM) y 2da) Cálculo del Costo Intrínseco la CS/CPT → (SoftC).
El trabajo está organizado como sigue: En la Sección 2, se presentan los conceptos vinculados a las definiciones de los Índices estándar IEEE que serán utilizados, el Análisis Estadístico de Componentes Principales y las técnicas Soft Computing que serán empleadas en el Modelo de Estimación aquí propuesto. En la Sección 3, se describe la 1ra) parte del Modelo para estimar el Índice Compuesto de Calidad CS/CPT (Etapa CP+DIM). En la Sección 4 se presenta la 2da) parte del Modelo, introduciendo operacionalmente las técnicas que permitirán estimar el Costo Intrínseco de la CS/CPT (Etapa SoftC). En la Sección 5 se presentan reportes vinculados al ACP y los resultados del Modelo de Estimación propuesto, sobre un SDEE MT/BT real perteneciente a la ciudad de San Carlos de Bariloche, Argentina. En la Sección 6 se presentan las conclusiones del trabajo. Finalmente, en la Sección 7, se lista la bibliografía consultada.
2. conceptos GENERALES UTILIZADOS EN EL MODELO DE ESTIMACIÓN
2.1 Definición de los Índices de Confiabilidad según la IEEE STD 1366TM
Se tienen desde IEEE (2003), considerando sólo los índices utilizados en este trabajo:
A) Índices basados en el Número de Clientes-Usuarios:
Sea el número total de usuarios en el sistema considerado, el número de usuarios cuyo suministro electrico es interrumpido (anualmente), el número de usuarios que padecen interrupciones momentáneas (orden de minutos -3 a 5 min-) de suministro (anualmente), y el tiempo de interrupción de la falla i-ésima, entonces se definen:
A.1) Índice de Frecuencia de Interrupciones Promedio del Sistema, SAIFI (por su sigla en inglés: System Average Interruption Frequency Index): representa el promedio de interrupciones. Operacionalmente:
(1)
A.2) Índice de Duración de las Interrupciones Promedio del Sistema, SAIDI (System Average Interruption Duration Index):
(2)
A.3) Índice de Frecuencias de Interrupciones Transitorias Promedio, MAIFI (Momentary Average Interruption Frequency Index):
(3)
B) Índices basados en la Energía: es empleado un único indicador para esta clasificación, denominado Energía No Suministrada (Anual y Esperada). Se define como:
(4)
Donde es la potencia (esperada) en el nodo, es el tiempo de interrumpción de suministro en el nodo k, y es el número total de nodos.
2.2 Técnicas Estadísticas Multivariadas. Análisis de Componentes Principales
Siguiendo a Peña (2002), un problema fundamental en el denominado Análisis de Datos Multivariantes, estriba en la reducción de la dimensionalidad de las variables observadas. Esto supone, en rigor, evaluar la posibilidad de describir, con la mayor precisión posible, los valores de p variables mediante un subconjunto, preferentemente pequeño, m < p de estas. Con ello se habrá reducido la dimensión del problema representado por tales variables, con una pequeña pérdida de la información que contienen. Este es el objetivo del Análisis de Componentes Principales (ACP). Como comentario de relevancia metodológica, existe una tendencia en diversos autores (la cual, en buena medida, responde a razones históricas) a emplear de manera indistinta en sus términos el ACP y otra técnica perteneciente al Análisis Multivariado denominada Análisis Factorial Exploratorio (AFE). El AFE, es también una técnica de reducción de variables. Pero a diferencia del ACP, explica las relaciones (correlaciones) entre tales variables observadas, como una combinación lineal de un número menor de variables no observadas llamadas Factores o Variables Latentes (F), a cuyas ecuaciones se le adiciona un término de error inherente a la medida de cada variable. En las expresiones (5) y (6) se presentan las Estructuras Algebraicas que representan las combinaciones lineales CP y F, dadas las variables en el vector [X].
Estructura Algebraica para el ACP:
(5)
Estructura Algebraica para el AFE:
(6)
Siendo el vector de variables; el vector de Componentes Principales; la matriz de pesos que cada una de las tiene, conforme su extracción, sobre cada una de las variables; el vector de factores; la matriz de cargas factoriales de cada uno de los factores sobre cada una de las variables y el vector de errores de medida correspondientes a cada una de las variables.
Las diferencias entre las Estructuras Algebraicas (ACP) y (AFE) son conceptualmente evidentes: mientras que variables observadas (también referidas como ítems) son las variables independientes en el ACP, resultan ser las variables dependientes en el AFE. Siguiendo a Mooi, Sarstedt y Mooi-Reci (2018), y sin entrar en engorrosos detalles matemáticos por cuestiones de espacio y debido a la vasta literatura que puede ser consultada al respecto, en este epígrafe sólo se presentarán dos comentarios remarcables, cuyos detalles serán más profundizados en la Sección 5: a) Tanto el ACP como el AF (el cual tiene una etapa Exploratoria –AFE- y otra Confirmatoria –AFC-) constituyen técnicas que intentan explicar los patrones de correlaciones dentro de un conjunto de variables observadas. Si bien son muy similares respecto a la forma en que arriban a una solución, difieren fundamentalmente en sus supuestos sobre la naturaleza de las variables y en su tratamiento dentro del proceso de análisis. Debido a estas diferencias, ambos métodos serán pertinentes según los objetivos de la investigación abordada. El objetivo de la ACP es reproducir una estructura de los datos, tanto como sea posible, utilizando unos pocos Componentes, reduciendo la dimensión del problema y captando la máxima variabilidad de los primeros. El AFE(C) tiene como objetivo explicar las correlaciones entre las variables-observaciones, mediante unos pocos Factores, también referidos como Variables Latentes (y en las aplicaciones para Medición en Ciencias Sociales -no excluyente-, como Constructos). Las variables o ítems que definen una CP o un F, en ambas técnicas, deben resultar no correlacionadas con las variables de las restantes CP’s o F’s; b) El ACP es, en general, consistente con la conceptualización de variables observadas denominadas formativas, pues se considera que las mismas forman un posible constructo. Las CP’s son “compuestos” de las variables observadas que reproducen el máximo de varianza de cada variable observada mediante el mínimo número de “compuestos”. Y como parte del procedimiento para alcanzar este objetivo, está la condición de que estos Componentes presenten correlaciones nulas entre ellos. Cualquiera que sea el enfoque que aplique, emplear sólo unos pocos CP o F en lugar la totalidad de los ítems captados reducirá la precisión de la variabilidad de los datos, puesto que los CP-F no pueden representar toda la información incluida en aquellos. En consecuencia, existe un compromiso (trade-off) entre simplicidad y precisión.
2.3 Técnicas Soft Computing utilizadas en el Modelo de Estimación
Desde las referencias Camargo et. al (2018), Schweickardt y Casanova (2018) y Schweickardt y Casanova (2017), se realiza la siguiente síntesis:
A) Formulación Clásica del Modelo para la Optimización de la Confiabilidad en SDEE MT. En este Modelo son considerados los Índices presentados en 2.1.
La optimización se focaliza en el emplazamiento óptimo de equipos de protección y maniobra (s/p), (I, F y S) en los alimentadores de SDEE MT.
Min [] (Función Objetivo):
(7)
Sujeto a:
(8)
(9)
(10)
Donde: es el costo total anualizado [U$D/año], es el costo anual de la ENS, y los términos: y son la suma de los costos anualizados correspondientes a la inversión en equipos s/p y de operación y mantenimiento, respectivamente. Como se observa, el costo de la ENS [$/kW-año] es establecido por la autoridad regulatoria, al igual que los límites admisibles o máximos , y . Esta Formulación Clásica es criticada por el establecimiento externo del Costo de la ENS, por su dudosa fundamentación metodológica, y por tratarse de una Optimización Mono-Objetivo. Tales limitaciones, fueron resueltas extendiendo el Modelo al Dominio Difuso (también referido como Posibilístico).
B) Extensión del Modelo de Optimización al Dominio Difuso
B-1) Conjuntos Difusos Solidarios a cada Criterio de Optimización
Como primer paso, deben definirse los Conjuntos Difusos solidarios tanto a la Función Objetivo como a las Restricciones, ahora considerados criterios de satisfacción. Si es la variable genérica que representa cada criterio, la Función de Pertenencia del Conjunto Difuso genérico, resulta ser:
(11)
Donde los valores y se corresponden con los límites fijados en el Modelo de Optimización Clásico sobre los índices SAIFI, SAIDI y MAIFI, incorporándose y (FO). De manera que se tienen ahora 5 variables (criterios) difusos. es el ponderador exponencial de . El próximo paso es obtener, para cada instancia (iteración) del nuevo Modelo de Optimización Posibilística, la Decisión Maximizante .
B-2) Conjunto Difuso de Decisión y Decisión Maximizante
El Conjunto Difuso de Decisión, cuya Función de Pertenencia es , se obtiene desde la confluencia entre los Conjuntos Difusos Solidarios a cada criterio de optimización. El operador de confluencia más comúnmente empleado es la Intersección, ; luego cada operador posible de utilizar para la confuencia entre Conjuntos Difusos tiene su correlato en un operador entre los valores de las Funciones de Pertenencia, , que resulta una t-norma. El operador que corresponde a la Intersección es el Mínimo de las Funciones de Pertenencia:
(12)
Este resulta muy estricto, por lo cual se ha optado por aplicar otra t-norma llamada Producto de Einstein, , definida como: si y son dos valores de sendas Funciones de Pertenencia, entonces:
(13)
Y para el problema abordado, la Decisión Maximizante será:
(14)
C) Solución del Modelo de Optimización Difuso Multi-Objetivo
En las referencias arriba citadas en este apartado, se explica que, si se emplea un único tipo de equipamiento s/p para emplazar óptimamente en los tramos de los alimentadores del SDEE MT considerado, el problema puede ser resuelto mediante Programación Dinámica Difusa o Posibilística (PDP). Pero si se emplean tipos de s/p diferentes (como en el caso aquí considerado), la PDP no es adecuada y debe considerarse otra estrategia para alcanzar la Desición Maximizante (Más Satisfactoria), . La Estrategia que se empleó, se soporta en una HiperHeurística basada en Razonamiento, con Función de Selección, , cuyo Dominio se integra por diferentes MetaHeurísticas denominadas (X-FPSO + FAFS) Formas, por sustentarse en distintas variantes, extendidas al Dominio Difuso (Multi-Objetivo), de las MetaHeurística PSO (Particle Swarm Optimization) y AFS (Artificial Fish School) Mono-Objetivo (la letra ‘F’ indica la extension Fuzzy de las mismas).
FIGURA 1: RN MFF-MBP (Fuente: Elaboración Propia)
En la FIGURA 1 se presenta la estructura de la Red Neuronal (RN) con la que se implementa la de la HiperHeurística, denominada MFF (Multiple Feed-Forward), la RN utilizada no es de Propagación Simple sino Múltiple. Así se tienen una la RN Primaria y otra Secundaria cuya función principal es la de controlar la inhibición de ciertas entradas (y su propagación) que no permiten un buen ajuste, mejorando notablemente su capacidad predictiva. Al respecto puede consultarse Schweickardt, Casanova y Pérez (2015). Por las mismas razones de espacio mencionadas en el apartado anterior (y por no ser el objetivo que persigue este trabajo), no se presentarán los complejos detalles vinculados a las expresiones de las MetaHeurísticas que constituyen el Dominio de la HiperHeurística, ni su vínculo con las Habilidades que las mismas exhiben para satisfacer los 5 Principios de la Inteligencia de Grupo (IG), ni las expresiones que han sido desarrolladas por el autor (en co-autoría con otros investigadores) como Índices Operacionales de los mismos. Aquí sólo se brindará una descripción cualitativa. En términos de los detalles sobre la definición de estos Indicadores de Inteligencia de Grupo (IIG) puede consultarse Casanova y Schweickardt (2016).
Volviendo sobre la RN, se observa en la FIGURA 1 que la misma tiene 15 entradas, una Capa Oculta con 10 neuronas, y 7 salidas. Este resultó el mejor diseño para el problema abordado.
FIGURA 2: Capas de Entrada (a) y Salida (b) de la RN utilizada como Función de Selección de la HiperHeurística (Fuente: Elaboración Propia)
En la FIGURA 2, se presentan mayores detalles sobre la estructura de los Patrones de Entrada (2-a) y de Salida (2-b), empleados para el entrenamiento de la RN. Para su explicación, deben ser introducidos brevemente los 5 Principios de Inteligencia de Grupo (Swarm Intelligence Principles), PIG.
El concepto de Inteligencia de Grupo (Swarm Intelligence) se refiere a un tipo de inteligencia artificial basada en el comportamiento de sistemas colectivos auto-organizados. Los PIG, inspirados en las sociedades colectivas de insectos, se utilizan para desarrollar algoritmos informáticos, fundamentalmente (y este es el caso para el presente trabajo), en MetaHeurísticas para resolver Problemas de Optimización cuyo Espacio de Búsqueda es Combinatorio. Para el caso de nT(s/p) = 3 tipos diferentes de equipos s/p a emplazar óptimamente en un SDEE MT, en cada una de sus nS secciones, los estados factibles, nSF, que componen el espacio de búsqueda resultarán de las variaciones con repetición de 3 elementos tomados de a nS→. Un ‘enjambre’ de individuos (partículas), puede coordinarse y comportarse como una sola entidad que funciona mejor que los individuos. Los 5 PIG propuestos, son: 1) Proximidad (PIGP): promueve la habilidad del enjambre para ejecutar cálculos simples de espacio y tiempo en sus movimientos hacia el objetivo pretendido; 2) Calidad (PIGC): promueve la capacidad del enjambre para responder a factores que inducen mejoras en la aptitud de sus individuos; 3) Diversidad (PIGD): promueve la posibilidad de que los individuos tengan diferentes respuestas a los mismos estímulos; 4) Estabilidad (PIGE): promueve la capacidad del enjambre de permanecer estable en ausencia de estímulos que induzcan a mejoras en las soluciones alcanzadas; y 5) Adaptación (PIGA): promueve la capacidad del enjambre para reaccionar ante cualquier cambio en la aptitud de las soluciones alcanzadas.
Como se dijo, el autor (en co-autoría) ha definido Indicadores para cada uno de estos PIG, estudiando las características que presenta esta Clase de Problemas y las Habilidades que las MetaHeurísticas (X-FPSO + FAFS Formas) tienen para satisfacerlos. Cada una de ellas exhibe habilidades diferentes, de modo que la ’tarea’ de la RN, como FS de la HiperHeurística, es evaluar en cada instancia (iteración) de la optimización, mediante el valor que arrojan tales indicadores, si la MetaHeurística que está siendo aplicada debe continuar o debe seleccionarse otra que mejore la estrategia de búsqueda de la solución más satisfactoria. Es decir: la RN predice (elige) desde su dominio, la MetaHeurística más apropiada en cada instancia de decisión o iteración.
De este modo, la composición de los Patrones de Entrada es la siguiente: en cada iteración, se evalúa la Función de Aptitud Máxima (fMax), Media (fMed) y Mínima (fMin) del enjambre. Mediante los Indicadores PIG (IIGP; IIGC; IIGD; IIGE; IIGA) se estima cuales están siendo satisfechos y cuales no. Las entradas son números binarios (0 → PIG no satisfecho; 1 → PIG satisfecho). Como se toman 3 valores de f por cada PIG, se tienen 15 Entradas. La Composición de los Patrones de Salida, también se codifica en números binarios con la siguiente interpretación; los primeros 5, se corresponden con cada Indicador PIG, Si se tiene un 0 → la RN predice que, de continuar aplicando la MetaHeurística en curso, ese PIG no mejorará, mientras que un 1 → que puede continuar su aplicación. Los otros dos bits del Patrón de Salida se recodifican en decimal (0, 1, 2 y 3) e implican que MetaHeurística, de las 4 que integran el dominio de la FS, debe ser aplicada en la próxima iteración. Por ello se observan 7 salidas. La implementación (entrenamiento de la RN) y simulación del Algoritmo HiperHeurístico, se realizó bajo Computación Paralela, bajo el Sistema Operativo Linux. El Hardware necesario para esto es una PC de características avanzadas, que cuente con una placa gráfica con capacidad de procesamiento de su GPU. Se utilizó la librería GPUMLib, que implementa los algoritmos de Retropropagación Simple (BP), Retropropagación Múltiple (MBP), Factorización Matricial No Negativa (NMF) y Redes de Base Radial (RBF). Fue empleado un Método de Validación Cruzada (Cross Validation), específicamente el Multifold Cross Validation, o Método K-fold, para la validación de las dos Redes Neuronales (dado que se trata de una RN MBP, como se dijo). Para el entrenamiento de las RNs (Primaria y Secundaria) se emplearon miles de Patrones Entada/Salida con la estructura descrita, provenientes de la aplicación de las X-FPSO + FAFS Formas, en conjunto con los Indicadores IIG definidos, sobre 5 Problemas de esta Clase (los cuales exhiben las mismas características en su Espacio de Búsqueda). Los resultados obtenidos fueron y son, para el problema aquí tratado (Optimización de la Confiabilidad en SDEE MT), muy satisfactorios.
3. Modelo para estimar el Índice Compuesto de Calidad SERVICIO/PRODUCTO DESDE LA PERCEPCIÓN DE LOS USUARIOS
3.1 Elementos Teóricos del ACP
3.1.1 Enfoques del Problema de ACP
En este apartado se presentarán, de manera muy sintética, algunos elementos teóricos fundamentales de Análisis de Componentes Principales (ACP) que se mencionarán explícitamente en el Modelo. Se asume que dispone de los valores de p variables en n elementos pertenecientes a cierta población, dispuestos en una matriz X de dimensiones , donde las columnas contienen las variables y las filas los elementos. Se supone, adicionalmente, que las variables han sido estandarizadas (cuando se emplee, el símbolo “” significa transpuesto/a).
Siguiendo a Peña (2002), el problema a resolver (obtención de las CP) consiste en encontrar un espacio de dimensión más reducida, para representar adecuadamente los datos a tratar. Y puede definirse desde tres perspectivas (que este autor sugiere equivalentes): a) Geométrica: Se dijo que, algebraicamente, las CP son combinaciones lineales particulares de las p variables aleatorias X1, X2, ..., Xp. Geométricamente, estas combinaciones lineales representan la selección de un nuevo sistema de coordenadas, obtenido al rotar el sistema original con X1, X2, ..., Xp como ejes coordenados. Los nuevos ejes representan las direcciones con máxima variabilidad y proporcionan una descripción más simple y parsimoniosa de la estructura de varianza-covarianza entre los datos. b) Descriptiva: Aquí planteada la noción intuitiva del problema: se busca obtener un criterio (matemático) operativo para resolverlo. Si, en principio y por simplicidad, se asume un subespacio unidimensional (una recta), considerando un punto Xi y una dirección (vector de norma 1) a1’ = [a11, a12, … , a1p]’, la proyección de Xi sobre a1 resulta en el escalar: . Entonces, si ri es la distancia entre Xi y su proyección a1, este criterio implica:
(15)
Al proyectar un punto sobre esta recta, se forma un triángulo rectángulo:
Hipotenusa → la distancia del punto al orígen,; Cateto 1 → la proyección del punto sobre la recta, zi; y Cateto 2 → la distancia entre el punto y su proyección, ri. Entonces: . Si se suma esta expresión para todos los puntos: . Como el primer miembro de esta relación constante, desde (15) Minimizar FO equivale a Maximizar FO1→ . Como las zi son variables de media 0, Maximizar FO1 (suma de sus cuadrados) equivale a Maximizar su varianza. Se logra así el criterio buscado encontrando la dirección de proyección que maximice la varianza de los datos proyectados, conservando lo más posible la variabilidad original; c) Estadística: La variable escalar obtenida al proyectar los puntos sobre la recta, tal como se describió en b), sirve para prever bien el conjunto de los datos y es equivalente a sustituir las p variables originales por una nueva variable z1. Pero esto será cierto siempre que la z1 tenga, globalmente, máxima correlación con las originales, pues la condición para que puedan representarse los datos observados con mínima pérdida de información, es que tal variable resulte de máxima variabilidad. El mismo enfoque puede ser extendido a efectos de obtener el mejor subespacio de 2 dimensiones, que resuma la información de los datos. En tal caso, debe determinarse el plano que mejor aproxima a los puntos. De manera que habrá que encontrar una nueva dirección definida por un vector unitario, a2, que, sin pérdida de generalidad, puede tomarse ortogonal a a1, y que cumpla, según la ecuación (15) y su equivalente de Maximización, que la proyección de un punto sobre este nuevo eje maximice las distancias entre los puntos proyectados. Desde estos tres enfoques o perspectivas, generalizando los conceptos a un subespacio con r < p dimensiones, se puede formular, operacionalmente, el procedimiento para la obtención de las CP.
3.1.2 Obtención de 1era CP
Los valores de la 1ra Componente Principal, serán, por lo dicho, los elementos de un vector z1, que estará dado por la expresión . Si se indica mediante S la matriz de varianzas y covarianzas de los datos, y dado que, por tener las variables originales media cero, z1 tendrá también media cero, su varianza resultará ser:
(16)
Resolviendo el problema de optimización para maximizar (16) por el método de los Multiplicadores de Lagrange, e imponiendo la restricción (módulo del vector igual a 1), se obtiene:
(17)
Lo cual implica que a1 es un autovector de S y su autovalor. De este modo es la varianza (maximizada) de z1.
3.1.3 Obtención de 2da CP
En este caso, debe obtenerse el mejor plano de proyección de las variables X. La FO a maximizar será la suma de las varianzas . Entonces, también empleando el método de los Multiplicadores de Lagrange con dos restricciones de igualdad sobre sendos vectores a1 y a2, se tendrá:
(18)
La solución viene dada por el sistema: (19)
Entonces: (20)
, deben ser los dos autovalores mayores de la matriz S y a1, a2 sus correspondientes autovectores. Por otro lado, la covarianza entre z1 y z2, dada por será nula, dado que , de modo que las nuevas variables (CP(1,2)) z1 y z2 estarán incorreladas.
Y puede continuarse con este procedimiento de agregación de dimensiones para extraer todas las CP. En teoría, será posible calcular r = p CP, lo cual no tiene ninguna utilidad práctica dado el objetivo del ACP. Esto es posible debido a que la matriz X (y por tanto la S) tiene rango p, existiendo entonces tantas CP como variables, las que se obtendrán calculando los autovalores de S mediante la expresión:, con sus correspondientes autovectores, mediante:.
Generalizando: Si Z es la matriz cuyas columnas son los valores de las p componentes para las n observaciones, estas nuevas variables se relacionan con las originales mediante la expresión: , con .
De esta forma, el cálculo de las CP, equivale a la aplicación de una Transformación Ortogonal (A) sobre las variables (X) (ejes originales), con el objeto de obtener unas nuevas variables (Z) incorreladas entre sí.
3.2 Modelo de Estimación del Índice Calidad/Producto
3.2.1 El Instrumento de Medida. Cuestionario empleado y Base de Datos (Data Set) obtenido. Adecuación Muestral
La captación de los datos para realizar el ACP se realizó mediante una encuesta a los usuarios del SDEE MT/BT Residenciales, cuyo formulario se presenta al final texto, en la Sección TABLAS y FIGURAS, en la FIGURA 3. La consideración de tal categoría y no otras (Comerciales e Industriales) es muy relevante, puesto que los hábitos de uso/consumo de la energía eléctrica suministrada, guardan una relación suficiente para tipificarlos. Lo mismo ocurre con los usuarios del segmento Comercial e Industrial. La autoridad regulatoria toma cuenta de esta tipificación, definiendo valores y parámetros de control diferentes. Pueden ser definidas otras sub-tificaciones (residencial urbano, suburbano y rural). O categorías dentro del mismo segmento (Tipo I, II, etc.) según el nivel de consumo. En el Modelo propuesto, se trata de usuarios residenciales urbanos-suburbanos, categorías I y II. El Cuestionario utilizado tiene 22 preguntas. Se observa que cada pregunta se corresponde con un Variable, V1 a V22. La encuesta se realizó sobre el SDEE MT/BT, cuyo esquema unifilar en MT se presenta en la Sección FIGURAS y TABLAS. Se generó una Base de Datos (DSET) con 420 observaciones –usuarios encuestados- finales. Sobre la misma se aplicó la metodología que define el Modelo objeto de la presente Sección.
En este trabajo se han utilizado STATA 16®, IBM SPSS 22® y el Lenguaje R – R Studio 3.6.1, con predominancia en el primero. Estos paquetes software realizan todos los cálculos necesarios para la aplicación de Técnicas de Análisis Multivariado. Para verificar que la correlación resulte suficiente entre las variables, se utilizó la prueba estadística Kaiser–Meyer–Olkin, KMO, como parte de esta evaluación de Adecuación Muestral. En (Kaiser, 1974) se sugieren los siguientes valores para este indicador, en relación a la Adecuación Muestral que posibilite realizar un ACP: KMO < 0,50 → Inaceptable; 0,5 ≤ KMO ≤ 0,59 → Muy Pobre; 0.60 ≤ KMO ≤ 0.69 → Mediocre; 0.70 ≤ KMO ≤ 0.79 → Aceptable; 0.80 ≤ KMO ≤ 0.89 → Meritorio y KMO ≥ 0,9 → Excelente. El valor obtenido para el DSET correspondiente al Modelo aquí propuesto, se reporta (con otros indicadores) en la Sección 5.
Para validar el Instrumento de Medición, se realizó una estimación mediante un AFC, siguiendo a Aldás y Uriel (2017), en Lenguaje R.
3.2.2 Cálculo del Índice Calidad/Producto Técnico (ICS/CPT)
Los pasos para el cálculo de este ICS/CPT, se presentarán mediante un pseudo-código, que fue implementado como un script en STATA 16® (archivo .do). Debe, previamente, mencionarse el enfoque propuesto para la utilización del Ïndice buscado: si bien en la extracción de las CP las variables se miden empleando una Escala Tipo Likert de 7 puntos, la composición del ICS/CPT requiere de una normalización de sus valores (intervalo [0, 1] en números reales). Esto responde a dos razones: a) cada pregunta del cuestionario, cuya magnitud solidaria tiene un índice físicamente medible, presenta una escala numérica subyacente en un intervalo de valores continuos, donde el valor más bajo (1 Likert) será el establecido en (11) y el más alto (7 Likert). Por caso: la Frecuencia de Interrupciones imprevistas, tiene un correlato físico con el SAIFI; b) el ICSP/CPT, puede tratarse como un Número Difuso para estimar el Costo Intrínseco de la (No) CS/CPT, como se verá en la Sección 4. En (11) se observa que el dominio difuso para cada criterio de optimización está normalizado en [0, 1].
4. Modelo para lA Estimación del Costo Intrínseco de la Calidad SERVICIO/PRODUCTO PERCIBIDA POR LOS USUARIOS
En esta Sección, considerando los desarrollos propuestos en Schweickardt y Pistonesi (2010) y Schweickardt y Casanova (2017) se presentarán las expresiones generales para el cálculo del Costo Intrínseco de la CS/CPT, desde el ICS/CPT estimado en la Sección precedente.
1ro) Al arribar a la Decisión Maximizante () en la Optimización de la Confiabilidad del SDEE MT, el Costo Intrínseco de la variable asociada a cualquiera de 4 Índices considerados (SAIFI, SAIDI, MAIFI, ENS), llamando RI (Reliability Index), CI(RI), tiene como expresiones generales en un entorno (*):
(21)
(22)
(23)
La ecuación (23) expresa un Costo Marginal [U$D/unidad-año]. Por Caso: CI(SAIFI) → [U$D/[Interrupción-año]. El Costo Intrínseco Total de Falla (CITF) [U$D], se calcula desde los apartamientos (positivos) , como:
= (24)
Y el Costo (Medio) Intrínseco Total de Falla energizado, se calcula como:
[U$D/kWh-año] (25)
2do) Calculado el CITF se propone, desde los mismos desarrollos que condujeron a las expresiones (21) a (25), determinar el CI(CS/CPT). Puede interpretarse como si RI = ICS/CPT, el Índice Compuesto estimado en la Sección 3. De modo que se tienen sólo dos Funciones de Pertenencia:
(26)
La expresión (26) considera que se ha arribado a la Decisión Maximizante, en la cual el Índice Compuesto estimado es un Número Difuso Triangular. µACT será la misma, mientras que µCSPT ya ha sido ponderada en la composición del Índice estimado.
Si se despeja ACT de (26), y se continúan los desarrollos sobre un único índice, se obtiene el Costo Intrínseco de Falla Percibida:
(27)
El valor de requiere conocer y . Para ello: a) en (26) (la Decisión Maximizante es la obtenida para el punto 1ero)); b) Como es el mismo, se resuelve (26) para ; c) es el valor del Índice Compuesto para cada usuario encuestado y resulta de .
Finalmente, el Costo Intrínseco de Falla Percibido energizado, resulta:
[U$D/kWh-año] (28)
5. SIMULACIÓN DEL MODELO Y RESULTADOS
El SDEE MT/BT analizado, FIGURA 4, corresponde al año 2002, al igual que la encuesta realizada. Las CP extraídas se presentan en la TABLA 1 y los resultados del AFC en la TABLA 2. La Varianza Total Explicada por las CP resultó 93,52%. Las Dimensiones (agrupación de las CP) están en la TABLA 5.
En el Modelo CP+DIM, se analizó el αCr de Cronbach, indicador fiabilidad en la escala utilizada, global y para cada variable. Como resultado, se eliminó la pregunta 2 (→ variable V2), obteniendo un αCr Global = 0,818. Se validó el Instrumento-Modelo de Medida, TABLA 2, mediante el AFC, utilizando el software R, y siguiendo Aldás y Uriel (2017) y a Sarabia Sánchez (2013). Los resultados de la Optimización SoftC se presentan en la TABLA 3.
Los Costos Intrínsecos para los ncr-1 = 4 Criterios Índices de Optimización, TABLA 4, resultan, aplicando la expresión (23) y utilizando la Decisión Maximizante dada por el Producto de Einstein Exponencial, propuesto por el autor, :
. Si se considera el apartamiento respecto de los valores óptimos para cada criterio de optimización, dado por (condición real, relevada sin optimizar el SDEE MT):
desde (24) y (25): [U$D/Falla-año]; [U$D/kWh-año]. La TABLA 4 proporciona los valores por Sb MT/BT.
Complementariamente a las contribuciones parciales sobre la integración de dos Modelos (CP+DIM) y (SoftC) para medir la Calidad de Servicio/Producto Técnico, Percibida por Clientes Residenciales en un SDEE MT/BT, se puntualizan los siguientes aspectos: a) Puede observarse que el Costo (Intrínseco) de Falla Medio Percibido por los Clientes (), y por Sb MT/BT, (TABLA 4) es mayor que el CITFE obtenido para el SDEE MT utilizando SoftC. Si bien el primero se presenta por Sb, se tiene un valor por cada cliente encuestado (420). Para el SDEE (global) resultó = 2,360 [U$D/kWh-año]. Existe una dispersión elevada por Sb, lo cual responde, razonablemente, a cuestiones psicométricas; b) La inclusión del PTV (Voltaje) responde a tres razones: 1ra) no se penaliza en la práctica, 2da) buena parte del PTV depende de los restantes índices, y estos han sido optimizados, y 3ra) la tarifa que pagan los clientes es calculada en base al Valor a Nuevo de Reemplazo (VNR), por lo cual no deberían presentarse fallas de realizar las inversiones que el VNR refleja en cada Periodo de Control Regulatorio; c) Por último, el Modelo de Medida propuesto (particularmente el CP+DIM) no pretende ser general. Es aplicable al SDEE analizado (y también es mejorable). Según la región donde se emplace un SDEE, pueden modificarse las preguntas del Cuestionario aquí utilizado, respetando las técnicas existentes para su diseño.
TABLAS Y FIGURAS
TABLA 1: CP: Variables, 𝜆i y %VE (Fuente: Elaboración Propia)
TABLA 2: Fiabilidad y Validez del Intrumento de Medida. Validez Convergente (RC-AVE) y Discriminante (ratio HTMT) (Fuente: Elaboración Propia)
TABLA 3: Optimización SDEE MT SoftC (Fuente: Elaboración Propia)
TABLA 4: Costos de Falla Total y Energizados Percibidos. Valores Medios por Sb MT/BT. (Fuente: Elaboración Propia)
TABLA 5: Dimensiones Obtenidas por agrupación de las CP desde el Pseudo-Código de la FIGURA 1. (Fuente: Elaboración Propia)
|
FIGURA 3: Pseudo-Código: Construcción del ICSP (Fuente: Elaboración Propia)
Sec, N° de Tramos; d, longitud [km]; Sb, ID Sub MT/BT; P, Potencia [kW]; NoC, N° de Clientes. Los rectángulos fuera de tramo →Tipo de s/p óptimo ubicado.
FIGURA 4: SDEE MT desde la ST AT/MT Optimizado: Datos y N° de Observaciones por Sb MT/BT (Fuente: Elaboración Propia)
Aldás, J. y Uriel, E. (2017). Análisis Multivariante Aplicado con R. 2da Edición. Paraninfo.
Al-Maghalseh, M. (2018). Evaluating the Reliability worth Indices of Electrical Medium Voltage Network: Case Study. Procedia Computer Science,130, 744-752.
Camargo, F., Schweickardt, G. y Casanova, C. (2018). Maps of Intrinsic Cost (IC) in Reliability Problems of Medium Voltage Power Distribution Systems through a Fuzzy Multi-Objective Model. DYNA, 85(204), 334-343.
Casanova, C. y Schweickardt, G. (2016). Análisis de las Habilidades de MetaHeurísticas X-PSO MultiObjetivo mediante Indicadores de Inteligencia de Grupo. Revista EPIO, 40, 23-42.
IEEE (2003). IEEE Guide for Electric Power Distrbution Realiability Indices. STD 1366TM.
Kaiser H. (1974). An index of factorial simplicity. Psychometrika, 39, 31–36.
Ley 24065 - InfoLeg - Información Legislativa (1992): Obtenido de https://servicios.infoleg.gob.ar/infolegInternet/verNorma.do?id=464.
Mooi, E., Sarstedt, M. y Mooi-Reci, I. (2018). Market Research: The Process, Data, and Methods Using Stata. Springer.
Peña, D. (2002). Análisis de Datos Multivariantes. Mcgraw Hill Interamericana de España SL.
Sarabia Sánchez, F. J. (2013). Métodos de Investigación Social y de la Empresa. Ediciones Pirámide.
Schweickardt, G. y Casanova, C. (2017). Optimización de la Confiabilidad en Sistemas de Distribución Eléctrica de Media Tensión”. Revista EPIO, 42, 3-22.
Schweickardt, G., Casanova, C. y Pérez, E. (2015). Modelo de Simulación Soft-Computing para la Selección de Contingencias Críticas en la Seguridad Dinámica de Sistemas de Potencia soportado en Redes Neuronales de Retropropagación Simple y Múltiple. Revista EPIO, 38, 25-46.
Schweickardt, G. y Pistonesi, H. (2010). Optimización de la Confiabilidad en Sistemas de Distribución Eléctrica de Media Tensión por Evolución del Costo Intrínseco de la Energía no Suministrada”. Revista EPIO,1,125-146.