DESARROLLO ACTIVIDAD NUMERO 6
MAYO 27 DEL 2010
TECNICO EN MANTENIMIENTO DE EQUIPOS DE CÓMPUTO
MIGUEL CAMILO GUTIERREZ RUIZ
GRUPO 1
CIRCUITO ELECTRICO
Se denomina circuito eléctrico a una serie de elementos o componentes eléctricos o electrónicos, tales como resistencias, inductancias, condensadores, fuentes, y/o dispositivos electrónicos semiconductores, conectados eléctricamente entre sí con el propósito de generar, transportar o modificar señales electrónicas o eléctricas. En la figura podemos ver un circuito eléctrico, sencillo pero completo, al tener las partes fundamentales:
Una fuente de energía eléctrica, en este caso la pila o batería.
Una aplicación, en este caso una lámpara incandescente.
Unos elementos de control o de maniobra, el interruptor.
Un instrumento de medida, el Amperímetro, que mide la intensidad de corriente.
El cableado y conexiones que completan el circuito.
Un circuito eléctrico tiene que tener estas partes, o ser parte de ellas.
PARTES DE UN CIRCUITO
Conductor: hilo de resistencia despreciable (idealmente cero) que une eléctricamente dos o más elementos.
Generador o fuente: elemento que produce electricidad. En el circuito de la figura 1 hay tres fuentes, una de intensidad, I, y dos de tensión, E1 y E2.
Nodo: punto de un circuito donde concurren varios conductores distintos. En la figura 1 se pueden ver cuatro nodos: A, B, D y E. Obsérvese que C no se ha tenido en cuenta ya que es el mismo nodo A al no existir entre ellos diferencia de potencial (VA - VC = 0).
Rama: conjunto de todos los elementos de un circuito comprendidos entre dos nodos consecutivos. En la figura 1 se hallan siete ramales: AB por la fuente, AB por R1, AD, AE, BD, BE y DE. Obviamente, por un ramal sólo puede circular una corriente.
TERMINOS
VOLTAJE
También llamado tensión o diferencia de potencial, el voltaje es la diferencia que hay entre dos puntos en el potencial eléctrico, refiriéndonos a potencial eléctrico como el trabajo que se realiza para trasladar una carga positiva de un punto a otro.
De esta manera, el voltaje no es un valor absoluto sino una diferencia entre las cargas eléctricas, que se mide en voltios, según el Sistema Internacional de Unidades.
Asimismo, si se coloca un conductor eléctrico entre dos puntos que tienen diferencia de potencial, se va a producir un flujo de corriente eléctrica. Y esta corriente eléctrica, al circular por los cables, es la que permite que los dispositivos electrónicos de la computadora (y todos los dispositivos electrónicos en general) se enciendan. La fuente de fuerza electromotriz es la que posibilita que esta corriente circule por los cables.
Cuanto mayor sea la diferencia de potencial o presión entre las cargas, mayor será el voltaje o tensión del circuito correspondiente. Lo que puede ocurrir es que haya un pico o una caída de tensión. El primero envía más electricidad que la necesaria mientras que la caída de tensión, por el contrario, es un período de bajo voltaje. Estas variaciones pueden causar problemas en los equipos, por lo que es necesario tener un dispositivo protector adecuado en el que se enchufen todos los componentes de nuestra computadora.
UNIDAD DE MEDIDA (VOLTIO)
Unidad de medición de la diferencia de potencial eléctrico o tensión eléctrica, comúnmente llamado voltaje.
Es la diferencia de potencial entre dos puntos en un conductor que transporta una corriente de 1 amperio, cuando la potencia disipada entre los puntos es de 1 watt.
Watt [Vatio] (W): Unidad de la potencia.
Potencia (P) requerida para realizar un trabajo a razón de 1 julio (joule) por segundo.
La fórmula es: P = W / T (potencia = energía por unidad de tiempo)
Si se consume un Julio en un segundo se dice que se consumió un Watt (Vatio) de potencia.
Existen varias fórmulas que nos ayudan a obtener la potencia que se consume en un elemento en particular.
Una de las más conocidas es: P = V x I
POTENCIA ELECTRICA
Es la cantidad de energía entregada o absorbida por un elemento en un tiempo determinado (p = dW / dt). La unidad en el Sistema Internacional de Unidades es el Vatio.
Cuando una corriente eléctrica fluye en un circuito, puede transferir energía al hacer un trabajo mecánico o termodinámico. Los dispositivos convierten la energía eléctrica de muchas maneras útiles, como calor, luz (lámpara incandescente), movimiento (motor eléctrico), sonido (altavoz) o procesos químicos. La electricidad se puede producir mecánicamente o químicamente por la generación de energía eléctrica, o también por la transformación de la luz en las celulas fotoeléctricas. Por último, se puede almacenar químicamente en baterías.
UNIDAD DE MEDIDA (WATT)
Múltiplos
kilowatt (kW) = 103 watt = 1 000 watt
kilowatt-hora (kW-h) – Trabajo realizado por mil watt de potencia en una hora. Un kW-h es igual a 1000 watt x 3 600 segundos, o sea, 3 600 000 joule (J).
Submúltiplos
miliwatt (mW) = 10-3 watt = 0,001 watt
microwatt ( W) = 10-6 watt = 0,000 001 watt
Caballo de fuerza (HP) o caballo de Vapor (C.V.)
1 H.P. (o C.V.) = 736 watt = 0,736 kW
1 kW = 1 / 0,736 H.P. = 1,36 H.P.
FORMULA: W = V • I
RESISTENCIA ELECTRICA
Es toda oposición que encuentra la corriente a su paso por un circuito eléctrico cerrado, atenuando o frenando el libre flujo de circulación de las cargas eléctricas o electrones. Cualquier dispositivo o consumidor conectado a un circuito eléctrico representa en sí una carga, resistencia u obstáculo para la circulación de la corriente eléctrica.
Normalmente los electrones tratan de circular por el circuito eléctrico de una forma más o menos organizada, de acuerdo con la resistencia que encuentren a su paso. Mientras menor sea esa resistencia, mayor será el orden existente en el micro mundo de los electrones; pero cuando la resistencia es elevada, comienzan a chocar unos con otros y a liberar energía en forma de calor. Esa situación hace que siempre se eleve algo la temperatura del conductor y que, además, adquiera valores más altos en el punto donde los electrones encuentren una mayor resistencia a su paso.
UNIDAD DE MEDIDA: (Ohmios)
FORMULA
Para realizar el cálculo de la resistencia que ofrece un material al paso de la corriente eléctrica, se utiliza la siguiente fórmula:
R=p*I/s
De Donde:
R = Resistencia del material en ohm ( ).
p = Coeficiente de resistividad o resistencia específica del material en
, a una temperatura dada.
l = Longitud del material en metros.
s = Superficie o área transversal del material en mm2.
CORRIENTE ELECTRICA
La corriente o intensidad eléctrica es el flujo de carga por unidad de tiempo que recorre un material. Se debe a un movimiento de los electrones en el interior del material. En el Sistema Internacional de Unidades se expresa en C•s-1 (culombios sobre segundo), unidad que se denomina amperio. Una corriente eléctrica, puesto que se trata de un movimiento de cargas, produce un campo magnético, lo que se aprovecha en el electroimán.
El instrumento usado para medir la intensidad de la corriente eléctrica es el galvanómetro que, calibrado en amperios, se llama amperímetro, colocado en serie con el conductor cuya intensidad se desea medir.
UNIDADES DE MEDIDA
Intensidad ( I): Amperio
Diferencia de potencial o fuerza electromotriz (fem): voltio
Resistencia : ohmio ( representada por la letra griega omega)
Potencia eléctrica : Watio ó Vátio
Capacidad eléctrica ( condensadores) : faradio
Consumo eléctrico : Watio/hora
FORMULA:
La intensidad es igual al voltaje o diferencia de potencial dividida por la resistencia.
I= V/R
LEY DE OHM
Basada en el trabajo de Georg Simón Ohm, la Ley de Ohm es una de las tres leyes fundamentales del estudio de la electrónica, en compañía de las leyes de Kirchhoff del voltaje y de la corriente. Estas tres leyes conforman el marco dentro del cual el resto de la electrónica se establece. Es importante notar que estas leyes no se aplican en todas las condiciones, pero definitivamente se aplican con gran precisión en alambres los cuales son usados para conectar entre sí la mayor parte de las partes electrónicas dentro de un circuito. Aunque las partes individuales pueden o no ser analizadas por la ley de Ohm, sus relaciones con el circuito pueden serlo.
El enunciado actual de la Ley de Ohm es:
La corriente que fluye a traves de un conductor es proporcional a la fuerza electromotriz aplicada entre sus extremos, teniendo en cuenta que las temperatura y demás condiciones se mantengan constantes.
Hay que tener en cuenta que no se menciona la resistencia, sino que simplemente éste es el nombre dado a la (constante de) proporcionalidad involucrada.
Algo importante que se obtiene de esta definición es:
En un circuito pasivo, la corriente es el resultado del voltaje aplicado.
Existen efectos térmicos definitivos en la resistencia (o la resistencia efectiva) en los conductores.
FORMULA MATEMATICA (REPRESENTACION DE LA LEY DE OHM)
Desde el punto de vista matemático el postulado anterior se puede representar por medio de la siguiente Fórmula General de la Ley de Ohm.
I=E/R
De Donde:
I – Intensidad de la corriente que recorre el circuito en ampere (A).
E – Valor de la tensión, voltaje o fuerza electromotriz en volt (V).
R – Valor de la resistencia del consumidor o carga conectado al circuito en ohm ( ).
CAPACITANCIA
Es la propiedad de un capacitor de oponerse a toda variación de la tensión en el circuito eléctrico. Usted recordará que la resistencia es la oposición al flujo de la corriente eléctrica. También se define, a la Capacitancia como una propiedad de almacenar carga eléctrica entre dos conductores, aislados el uno del otro, cuando existe una diferencia de potencial entre ellos, como se observa en la figura siguiente, las dos placas actúan como conductores, mientras que el aire actúa como un aislante:
Así como un Resistor está diseñado para tener Resistencia, el Capacitor está diseñado para tener Capacitancia; mientras que los resistores se oponen al flujo de la corriente, los capacitores se oponen a cualquier cambio en el Tensión eléctrica; el Capacitor más pequeño capaz de acumular carga eléctrica se construye de dos placas y un aislante de aire llamado dieléctrico.
Los factores que determinan la Capacitancia de un Capacitor simple son: a) el área de la placas, b) la separación entre las placas y c) el material del dieléctrico; La Capacitancia es directamente proporcional al área de las placas y a la constante dieléctrica del material dieléctrico utilizado e inversamente proporcional a la distancia de separación de las placas, es decir: C = k A/ d = Faradios.
De ahí que si el área de las placas aumenta, con ello aumenta la Capacitancia; por el contrario, si la separación de las placas aumenta, disminuye la Capacitancia
De acuerdo a la fórmula C = k A / d, obtenemos el resultado en Faradios; si queremos el Resultado en Micro faradios (símbolo μf) entonces agregamos el factor de conversión 8.85 x 10 -" -y nuestra fórmula quedará así: C = 8.85xlO-8 A/d
Donde:
C = Capacitancia en μf (Micro faradios).
A = Área de las placas, cm2.
d = Distancia de separación de las placas, en cm.
INDUCTANCIA
En un Inductor o bobina, se denomina inductancia, L, a la relación entre el flujo magnético, y la intensidad de corriente eléctrica, I:
El flujo que aparece en esta definición es el flujo producido por la corriente I exclusivamente. No deben incluirse flujos producidos por otras corrientes ni por imanes situados cerca ni por ondas electromagnéticas.
Esta definición es de poca utilidad porque es difícil medir el flujo abrazado por un conductor. En cambio se pueden medir las variaciones del flujo y eso sólo a través del voltaje V inducido en el conductor por la variación del flujo. Con ello llegamos a una definición de inductancia equivalente pero hecha a base de cantidades que se pueden medir, esto es, la corriente, el tiempo y la tensión:
El signo de la tensión y de la corriente son los siguientes: si la corriente que entra por la extremidad A del conductor, y que va hacia la otra extremidad, aumenta, la extremidad A es positiva con respecto a la opuesta. Esta frase también puede escribirse al revés: si la extremidad A es positiva, la corriente que entra por A aumenta con el tiempo.
La inductancia siempre es positiva, salvo en ciertos circuitos electrónicos especialmente concebidos para simular inductancias negativas.
De acuerdo con el Sistema Internacional de Medidas, si el flujo se expresa en weber y la intensidad en amperio, el valor de la inductancia vendrá en henrio (H).
Los valores de inductancia prácticos van de unos décimos de nH para un conductor de 1 milímetro de largo hasta varias decenas de miles de Henrios para bobinas hechas de miles de vueltas alrededor de núcleos ferromagnéticos.
El término "inductancia" fue empleado por primera vez por Oliver Heaviside en febrero de 1886, mientras que el símbolo L se utiliza en honor al físico Heinrich Lenz.
REACTANCIA
Se denomina Reactancia a la oposición ofrecida al paso de la corriente alterna por inductores (bobinas) o capacitores (condensadores) y se mide en Ohms.
La reactancia capacitiva se representa por y su valor viene dado por la fórmula:
En la que:
Xc = Reactancia capacitiva en ohmios
C = Capacitancia en faradios
f = Frecuencia en hercios
w = Frecuencia angular
La reactancia inductiva se representa por y su valor viene dado por:
En la que:
Xl = Reactancia inductiva en ohmios
L = Inductancia en henrios
f = Frecuencia en hercios
w = Frecuencia angular
Si se realiza una representación vectorial de la impedancia inductiva y de la capacitiva, estos vectores se deberán dibujar en sentido opuesto y sobre el eje imaginario, ya que las impedancias se calculan como y respectivamente.
El hecho que sean opuestos, sale del signo" " que aparece al calcular la impedancia generada por el capacitor.
No obstante, las bobinas y condensadores reales presentan una resistencia asociada, que en el caso de las bobinas se considera en serie con el elemento, y en el caso de los condensadores en paralelo. En esos casos la impedancia(Z) total es la suma de la resistencia (R) y la Reactancia (X). No es una suma directa sino una suma vectorial ya que la impedancia es un numero complejo.
En fórmulas:
En donde:
J= es la unidad imaginaria
X = (WL − 1 / WC) es la reactancia en Ohms.
W es la frecuencia angular a la cual está sometido el elemento, y L y C los valores de inductancia y capacitancia respectivamente.
Dependiendo del valor de la reactancia se dice que el circuito presenta:
Si , reactancia Inductiva(WL > 1 / WC)
Si , no hay reactancia y la impedancia es puramente Resistiva(WL = 1 / WC)
Si , reactancia Capacitiva(1 / WC > WL)
RELUCTANCIA MAGNETICA
La reluctancia magnética de un material, es la resistencia que éste posee al verse influenciado por un campo magnético. Se define como la relación entre la fuerza magnetomotriz (f.m.m.) (la unidad del SI es el Amperio, aunque a menudo se la llama amperio vuelta) y el flujo magnético (SI: weber). El término lo acuñó Oliver Heaviside en 1888.
La reluctancia R de un circuito magnético uniforme se puede calcular como:
Donde:
R = reluctancia, medida en amperio vuelta por weber ( A v/Weber ). Esta unidad es equivalente al inverso del Henrio (H-1) multiplicado por el número de espiras .
l = longitud del circuito, medida en metros.
μ = permeabilidad magnética del material, medida en H/m (henrio/metro).
A = Área de la sección del circuito (sección del núcleo magnético), en metros cuadrados.
LEYES DE KIRCHHOFF
Las leyes (o Lemas) de Kirchhoff fueron formuladas por Gustav Robert Kirchhoff en 1845, cuando aún era estudiante. Estas son:
La Ley de los nodos o ley de corrientes.
La Ley de las "mallas" o ley de tensiones.
Son muy utilizadas en ingeniería eléctrica para obtener los valores de intensidad de corriente y potencial en cada punto de un circuito eléctrico. Surgen de la aplicación de la ley de conservación de la energía.
En circuitos complejos, así como en aproximaciones de circuitos dinámicos, se pueden aplicar utilizando un algoritmo sistemático, sencillamente programable ensistemas de cálculo informatizado mediante matrices de un solo núcleo.
Ley de nodos o ley de corrientes de Kirchhoff
En todo nodo, donde la densidad de la carga no varíe en el tiempo, la suma de la corriente entrante es igual a la suma de la corriente saliente.
Donde Ie es la corriente entrante e Is la corriente saliente.
De igual forma, La suma algebraica de todas las corrientes que pasan por el nodo (entrantes y salientes) es igual a 0 (cero).
.
Ley de mallas o ley de tensiones de Kirchhof
En toda malla la suma de todas las caídas de tensión es igual a la suma de todas las subidas de tensión.
Donde, V+ son las subidas de tensión y V- son las caídas de tensión.
De forma equivalente, En toda malla la suma algebraica de las diferencias de potencial eléctrico debe ser 0 (cero).
CORRIENTE ALTERNA
Se denomina corriente alterna (abreviada CA en español y AC en inglés, de Alternating Current) a la corriente eléctrica en la que la magnitud y dirección varían cíclicamente. La forma de onda de la corriente alterna más comúnmente utilizada es la de una onda senoidal (figura 1), puesto que se consigue una transmisión más eficiente de la energía. Sin embargo, en ciertas aplicaciones se utilizan otras formas de onda periódicas, tales como la triangular o la cuadrada.
Utilizada genéricamente, la CA se refiere a la forma en la cual la electricidad llega a los hogares y a las empresas. Sin embargo, las señales de audio y deradio transmitidas por los cables eléctricos, son también ejemplos de corriente alterna. En estos usos, el fin más importante suele ser la transmisión y recuperación de la información codificada (o modulada) sobre la señal de la CA.
CORRIENTE DIRECTA
Corriente directa (C.C. o “continuo actual“) es el flujo unidireccional de carga eléctrica. La corriente directa es producida por las fuentes tales como baterías, termopares, células solares, y conmutador-tipo máquinas eléctricas de dínamo tipo. La corriente directa puede fluir en a conductor por ejemplo un alambre, pero puede también estar a través semiconductores, aisladores, o aún con vacío como adentro electrón o haces iónicos. En la corriente directa, cargas eléctricas fluya en la misma dirección, distinguiéndolo de corriente alterna (CA). A el término utilizó antes para corriente directa era Corriente galvánica.
La corriente directa se puede obtener de una fuente de la corriente alterna por medio de un arreglo de la actual-conmutación llamado a rectificador, que contiene electrónico elementos (generalmente) o elementos electromecánicos (históricamente) que permiten que la corriente fluya solamente en una dirección. La corriente directa se puede hacer en corriente alterna con inversor o un sistema del motor-generador.
El primer anuncio transmisión de la energía eléctrica (convertido cerca Thomas Edison en el atrasado diecinueveavo siglo) corriente directa usada. Debido a la ventaja de la corriente directa del excedente de la corriente alterna en transformar y la transmisión, la distribución de la energía eléctrica es hoy casi toda la corriente alterna. Para los usos que requieren la corriente directa, por ejemplo, tercer carril los sistemas de energía, corriente alterna se distribuyen a una subestación, que utiliza a rectificador para convertir la energía a la corriente directa. Vea Guerra de corrientes.
La corriente directa se utiliza para cargar las baterías, y en casi todos los sistemas electrónicos como la fuente de alimentación. Las cantidades muy grandes de energía continua se utilizan en la producción de aluminio y otro proceso electroquímico. La corriente directa se utiliza para alguno ferrocarril propulsión, especialmente en áreas urbanas. Corriente directa de alto voltaje se utiliza transmitir cantidades grandes de energía de sitios alejados de la generación o interconectar rejillas de la energía de la corriente alterna.
CORRIENTE CONTINUA
La corriente continua (CC o DC) se genera a partir de un flujo continuo de electrones (cargas negativas) siempre en el mismo sentido, el cual es desde el polo negativo de la fuente al polo positivo. Al desplazarse en este sentido los electrones, los huecos o ausencias de electrones (cargas positivas) lo hacen en sentido contrario, es decir, desde el polo positivo al negativo.
Por convenio, se toma como corriente eléctrica al flujo de cargas positivas, aunque éste es a consecuencia del flujo de electrones, por tanto el sentido de la corriente eléctrica es del polo positivo de la fuente al polo negativo y contrario al flujo de electrones y siempre tiene el mismo signo.
La corriente continua se caracteriza por su tensión, porque, al tener un flujo de electrones prefijado pero continuo en el tiempo, proporciona un valor fijo de ésta (de signo continuo), y en la gráfica V-t (tensión tiempo) se representa como una línea recta de valor V.
En la corriente alterna (CA o AC), los electrones no se desplazan de un polo a otro, sino que a partir de su posición fija en el cable (centro), oscilan de un lado al otro de su centro, dentro de un mismo entorno o amplitud, a una frecuencia determinada (número de oscilaciones por segundo).
Por tanto, la corriente así generada (contraria al flujo de electrones) no es un flujo en un sentido constante, sino que va cambiando de sentido y por tanto de signo continuamente, con tanta rapidez como la frecuencia de oscilación de los electrones.
En la gráfica V-t, la corriente alterna se representa como una curva u onda, que puede ser de diferentes formas (cuadrada, sinusoidal, triangular..) pero siempre caracterizada por su amplitud (tensión de cresta positiva a cresta negativa de onda), frecuencia (número de oscilaciones de la onda en un segundo) y período (tiempo que tarda en dar una oscilación).
También se pueden emplear corrientes combinación de ambas, donde la componente continua eleva o desciende la señal alterna de nivel.
GENERACION DE ENERGIA ELECTRICA
Generación y transporte de electricidad es el conjunto de instalaciones que se utilizan para transformar otros tipos de energía en electricidad y transportarla hasta los lugares donde se consume. La generación y transporte de energía en forma de electricidad tiene importantes ventajas económicas debido al costo por unidad generada. Las instalaciones eléctricas también permiten utilizar la energía hidroeléctrica a mucha distancia del lugar donde se genera. Estas instalaciones suelen utilizar corriente alterna, ya que es fácil reducir o elevar el voltaje con transformadores. De esta manera, cada parte del sistema puede funcionar con el voltaje apropiado. Las instalaciones eléctricas tienen seis elementos principales:
La central eléctrica
Los transformadores, que elevan el voltaje de la energía eléctrica generada a las altas tensiones utilizadas en las líneas de transporte
Las líneas de transporte
Las subestaciones donde la señal baja su voltaje para adecuarse a las líneas de distribución
Las líneas de distribución
Los transformadores que bajan el voltaje al valor utilizado por los consumidores.
En una instalación normal, los generadores de la central eléctrica suministran voltajes de 26.000 voltios; voltajes superiores no son adecuados por las dificultades que presenta su aislamiento y por el riesgo de cortocircuitos y sus consecuencias. Este voltaje se eleva mediante transformadores a tensiones entre 138.000 y 765.000 voltios para la línea de transporte primaria (cuanto más alta es la tensión en la línea, menor es la corriente y menores son las pérdidas, ya que éstas son proporcionales al cuadrado de la intensidad de corriente). En la subestación, el voltaje se transforma en tensiones entre 69.000 y 138.000 voltios para que sea posible transferir la electricidad al sistema de distribución. La tensión se baja de nuevo con transformadores en cada punto de distribución. La industria pesada suele trabajar a 33.000 voltios (33 kilovoltios), y los trenes eléctricos requieren de 15 a 25 kilovoltios. Para su suministro a los consumidores se baja más la tensión: la industria suele trabajar a tensiones entre 380 y 415 voltios, y las viviendas reciben entre 220 y 240 voltios en algunos países y entre 110 y 125 en otros.
TRASNMISION DE VOZ Y DATOS
Tradicionalmente, las redes de voz están separadas de las de datos y, si bien, hace ya muchos años que se habla de la integración de unas y otras, la realidad es que se ha avanzado poco en este aspecto; la razón puede que sea que económicamente aún no resulta del todo rentable, por lo que los administradores de redes siguen pensando en dos redes separadas como solución a las comunicaciones, a pesar de las desventajas técnicas y de gestión que tal hecho les pueda suponer.
Sin embargo, actualmente, hay nuevos factores que juegan a favor de la integración y que pueden servir de catalizador: la imagen, la telefonía asistida por ordenador y, en general, todo lo que es multimedia, entendiendo por tal la combinación de sonido, textos, imágenes y vídeo en la que el usuario tiene cierto grado de interactividad y puede intervenir en el desarrollo de la acción. En el futuro las redes se han de construir para ser capaces de soportar tráfico multimedia, con lo que la integración verá facilitado su camino.
La integración de voz y datos en una red corporativa ofrece una serie de ventajas para el administrador de la red, como es el disponer de una infraestructura común de acceso y transporte y un sistema único de gestión. Para ello se confía en una red digital y medios de conmutación capaces de tratar cualquier tipo de información, basados en tecnologías tales como puede ser TDM, RDSI, Frame Relay o ATM.
Cuando se habla de integración de voz y datos en la misma red se pueden dar tres situaciones distintas:
a) Transporte de datos, junto con voz, sobre redes específicas de voz, como son las redes telefónicas públicas, bien sean fijas o móviles como sucede en el caso de GSM.
b) Transporte de voz, junto con datos, sobre redes específicamente diseñadas para datos, como puede ser Internet.
c) Transporte de voz y datos sobre redes específicas para ambos tipos de tráfico, como es la RDSI.
Cuando se trata de integrar hay que tener en cuenta las diferentes características del tráfico de voz y de datos; por una parte, la voz necesita de un retardo constante en la red, mientras que los datos pueden fluir a distinto ritmo, encargándose el receptor de reordenarlos; por otra, la voz admite cierta distorsión en la señal ya que el ser humano es capaz de entender un mensaje aunque presente algunas alteraciones, mientras que una transmisión de datos requiere una alta calidad ya que si no, se producen errores en la misma que pueden ser fatales. La transmisión de imágenes presenta unas características similares a las de la voz -ambas señales son isócronas- pero requiere de un ancho de banda muy superior. Para que el retardo del sonido que se produce en una red, si es suficientemente extensa, no moleste al usuario, debe ser inferior a unos 250 milisegundos; si es mayor habrá que utilizar canceladores de eco. La tasa de error, para datos, en cualquier situación debe ser inferior a 10-4, siendo lo habitual una tasa de error de 10-6.
Multiplexación
En el caso a), se consigue la integración de ambos tipos de tráfico mediante el empleo de multiplexores, asociados a modems u a otros equipos adaptadores al medio de transmisión de que se trate: circuitos conmutados o líneas dedicadas.
Una de las técnica básicas empleadas para la integración de uno y otro tipo de tráfico es la multiplexación por división en el tiempo (TDM), desarrollada hace ya más de 30 años, pero que aún sigue vigente. Con ésta, el ancho de banda total se divide en períodos de tiempo que se asignan secuencialmente a cada canal; la voz previamente se ha digitalizado mediante algoritmos tales como PCM (64 Kbit/s), ADPCM (32 Kbit/s), u otros que consiguen una transmisión aceptable con solo 8 Kbit/s. Así, el tráfico de voz (procedente de un teléfono o de una PABX) y datos se puede mezclar sobre una línea de transmisión punto a punto, consiguiéndose en algunos casos ahorros muy importantes. El ancho de banda se puede asignar dinámicamente, en función de la actividad o inactividad de los canales para la optimización del enlace; también, se puede reservar uno determinado para garantizar la transmisión de la voz. Esta técnica, aunque efectiva, no consigue un rendimiento adecuado en el caso de tráfico a ráfagas o impulsivo, por lo que se han desarrollado otras, como es la conmutación de paquetes que, si en un principio solamente era adecuada para datos, hoy permite el tráfico de voz.
Frame Relay
En el pasado, todos los esfuerzos, dada la escasez de ancho de banda, iban encaminados a comprimir la voz al máximo posible aún a expensas del deterioro de su calidad; hoy, al disponer de canales de mas capacidad y redes de banda ancha, así como a emplear técnicas que se basan en el aprovechamiento de las cualidades que se dan al mantener una conversación, cada persona habla menos del 50% del tiempo y tiene un sentido unidireccional, se puede conseguir transmitir voz por redes de datos con una calidad mas que aceptable.
Un ejemplo de tal hecho se manifiesta en la oferta que están haciendo varios operadores de redes de datos, entre ellos Telefónica y BT Telecomunicaciones, de transmitir voz sobre redes Frame Relay, en aplicación a Grupos Cerrado de Usuarios, aunque éste es un aspecto legislativo, siendo técnicamente posible el hacerlo en cualquier caso. De nuevo, son las tarifas el factor decisivo para que los administradores de redes se decidan por esta solución, ya que si hacerlo así resultase mas caro que teniendo redes independientes, no tendría sentido.
El transporte de voz en redes Frame Relay se manifiesta efectivo siempre que se provea un ancho de banda mínimo (CIR) garantizado, para lo cual la voz ha de tener prioridad sobre los otros tipos de tráfico y no ser dominante, y un retardo máximo, por lo que la longitud de los paquetes ha de ser función de la velocidad de transmisión.
Dado que lo habitual es el uso de CVP (Circuitos Virtuales Permanentes), este servicio es rentable sólo si se conectan pocos puntos y el tráfico entre ellos es alto o se procede a la conmutación de la voz con centralitas específicas.
Telefonía en Internet
Otra situación, muy actual, es la que se está dando al cursar tráfico telefónico de larga distancia sobre Internet; en este caso, el deterioro de la señal se ve plenamente recompensado por el ahorro de los costes de la comunicación, ya que se paga únicamente una llamada local. Su dificultad radica en que al no haber estándares la incompatibilidad entre distintos sistemas es obvia.
La telefonía en Internet, es un fenómeno, aún incipiente, que está empezando a preocupar a los operadores tradicionales, por el gran potencial de desarrollo que presenta y por las dificultades que plantea su control y/o regulación. Por otra parte, en Internet, al no disponer de un órgano de gestión centralizado o un responsable único, no se puede garantizar una determinada calidad de servicio ni un retardo determinado, lo que juega en contra del tráfico telefónico a su través que solo es posible por medio de un tratamiento software de la señal vocal.
Redes de banda ancha
El caso c) de redes específicamente diseñadas para soportar tráfico de cualquier naturaleza es el que más interés tiene cuando se trata de implantar la integración de voz y datos. En este tipo de redes no suelen manifestarse problemas de índole técnico y su estudio de viabilidad se reduce a un análisis económico frente a otras alternativas.
La RDSI es el ejemplo más conocido de una red digital en la que se integra tráfico de voz con tráfico de datos (también admite vídeo-conferencia), disponiendo el usuario en su domicilio de una terminación común para ambos. En la RDSI todo el diseño de la red se ha hecho, desde un principio, teniendo en cuenta que iba a soportar ambos tipos de tráfico, por lo que su implementación, siguiendo los estándares marcados, no plantea problemas, existiendo acuerdos entre distintos operadores europeos para interconectar sus redes (norma Euro RDSI).
Una tecnología actual como es el ATM, base de la RDSI de banda ancha, está pensada para soportar un caudal de tráfico muy intenso, entre el que se encuentra el de voz y el de datos, junto con el de vídeo. Por sus características (celdas con una longitud fija de 53 octetos -permite la conmutación por hardware-, de los cuales 48 configuran la información de usuario y los otros 5 constituyen la cabecera que se utiliza fundamentalmente para identificar la conexión a la que pertenece cada celda y encaminarla a través de la red) resulta adecuado para cualquier situación, pero su overhead y su alto coste no le hacen adecuado para velocidades inferiores a 2 Mbit/s.
Según la procedencia de la señal, se utilizan distintas capas de adaptación (AAL1 para la voz), con lo que se consigue multiplexar tráfico sobre el mismo medio de transmisión. Si bien, es posible el tráfico de voz sobre ATM, su rendimiento es escaso y no resulta económicamente rentable frente a otras soluciones, razón por lo que su implementación es aún muy baja en WANs.
Se necesitan grandes inversiones en equipos y en los enlaces de alta velocidad, por lo que, al igual que en el caso de Frame Relay, sólo se justifica en caso de volúmenes muy alto de tráfico entre dependencias.
DISPOSITIVOS SEMICONDUCTORES
DIAC
El DIAC (Diodo para Corriente Alterna) es un dispositivo semiconductor de dos conexiones. Es un diodo bidireccional disparable que conduce la corriente sólo tras haberse superado su tensión de disparo, y mientras la corriente circulante no sea inferior al valor característico para ese dispositivo. El comportamiento es fundamentalmente el mismo para ambas direcciones de la corriente. La mayoría de los DIAC tienen una tensión de disparo de alrededor de 30 V. En este sentido, su comportamiento es similar a una lámpara de neón.
Los DIAC son una clase de tiristor, y se usan normalmente para disparar los triac, otra clase de tiristor.
Es un dispositivo semiconductor de dos terminales, llamados ánodo y cátodo. Actúa como un interruptor bidireccional el cual se activa cuando el voltaje entre sus terminales alcanza el voltaje de ruptura, dicho voltaje puede estar entre 20 y 36 volts según la referencia
Existen dos tipos de DIAC:
DIAC de tres capas: Es similar a un transistor bipolar sin conexión de base y con las regiones de colector y emisor iguales y muy dopadas. El dispositivo permanece bloqueado hasta que se alcanza la tensión de avalancha en la unión del colector. Esto inyecta corriente en la base que vuelve el transistor conductor, produciéndose un efecto regenerativo. Al ser un dispositivo simétrico, funciona igual en ambas polaridades, intercambiando el emisor y colector sus funciones.
DIAC de cuatro capas: Consiste en dos diodos Shockley conectados en antiparalelo, lo que le da la característica bidireccional.
DIODO
Dispositivo semiconductor que permite el paso de la corriente eléctrica en una única dirección con características similares a uninterruptor. De forma simplificada, la curva característica de un diodo (I-V) consta de dos regiones: por debajo de cierta diferencia de potencial, se comporta como un circuito abierto (no conduce), y por encima de ella como un circuito cerrado con una resistencia eléctrica muy pequeña.
Debido a este comportamiento, se les suele denominar rectificadores, ya que son dispositivos capaces de suprimir la parte negativa de cualquier señal, como paso inicial para convertir una corriente alterna en corriente continua. Su principio de funcionamiento está basado en los experimentos de Lee De Forest.
Los primeros diodos eran válvulas o tubos de vacío, también llamados válvulas termoiónicas constituídos por dos electrodos rodeados de vacío en un tubo de cristal, con un aspecto similar al de las lámparas incandescentes. El invento fue desarrollado en 1904 por John Ambrose Fleming, empleado de la empresa Marconi, basándose en observaciones realizadas por Thomas Alva Edison.
Al igual que las lámparas incandescentes, los tubos de vacío tienen un filamento (el cátodo) a través del cual circula la corriente, calentándolo por efecto Joule. El filamento está tratado con óxido de bario, de modo que al calentarse emite electrones al vacío circundante los cuales son conducidos electrostáticamente hacia una placa, curvada por un muelle doble, cargada positivamente (el ánodo), produciéndose así la conducción. Evidentemente, si el cátodo no se calienta, no podrá ceder electrones. Por esa razón, los circuitos que utilizaban válvulas de vacío requerían un tiempo para que las válvulas se calentaran antes de poder funcionar y las válvulas se quemaban con mucha facilidad.
RECTIFICADOR CONTROLADO DE SILICIO
Es un tipo de tiristor formado por cuatro capas de material semiconductor con estructura PNPN o bien NPNP. El nombre proviene de la unión de Tiratrón (tyratron) y Transistor.
Un SCR posee tres conexiones: ánodo, cátodo y gate (puerta). La puerta es la encargada de controlar el paso de corriente entre el ánodo y el cátodo. Funciona básicamente como undiodo rectificador controlado, permitiendo circular la corriente en un solo sentido. Mientras no se aplique ninguna tensión en la puerta del SCR no se inicia la conducción y en el instante en que se aplique dicha tensión, el tiristor comienza a conducir. Trabajando en corriente alterna el SCR se desexcita en cada alternancia o semiciclo. Trabajando en corriente continua, se necesita un circuito de bloqueo forzado, o bien interrumpir el circuito.
El pulso de disparo ha de ser de una duración considerable, o bien, repetitivo si se está trabajando en corriente alterna. En este último caso, según se atrase o adelante el pulso de disparo, se controla el punto (o la fase) en el que la corriente pasa a la carga. Una vez arrancado, podemos anular la tensión de puerta y el tiristor continuará conduciendo hasta que la corriente de carga disminuya por debajo de la corriente de mantenimiento (en la práctica, cuando la onda senoidal cruza por cero)
Cuando se produce una variación brusca de tensión entre ánodo y cátodo de un tiristor, éste puede dispararse y entrar en conducción aún sin corriente de puerta. Por ello se da como característica la tasa máxima de subida de tensión que permite mantener bloqueado el SCR. Este efecto se produce debido al condensador parásito existente entre la puerta y el ánodo.
Los SCR se utilizan en aplicaciones de electrónica de potencia, en el campo del control, especialmente control de motores, debido a que puede ser usado como interruptor de tipo electrónico.
TIRISTOR
El tiristor (gr.: puerta) es un componente electrónico constituido por elementos semiconductores que utiliza realimentación interna para producir una conmutación. Los materiales de los que se compone son de tipo semiconductor, es decir, dependiendo de la temperatura a la que se encuentren pueden funcionar como aislantes o como conductores. Son dispositivos unidireccionales porque solamente transmiten la corriente en una única dirección. Se emplea generalmente para el control de potencia eléctrica.
El dispositivo consta de un ánodo y un cátodo, donde las uniones son de tipo PNPN entre los mismos. Por tanto se puede modelar como 2 transistores típicos PNP y NPN, por eso se dice también que el tiristor funciona con tensión realimentada. Se crean así 3 uniones (denominadas J1, J2, J3 respectivamente), el terminal de puerta está conectado a la unión J2 (unión NP).
Algunas fuentes definen como sinónimos al tiristor y al rectificador controlado de silicio (SCR);1 otras definen al SCR como un tipo de tiristor, a la par que los dispositivos DIAC y TRIAC.
Este elemento fue desarrollado por ingenieros de General Electric en los años 1960. Aunque un origen más remoto de este dispositivo lo encontramos en el SCR creado por William Shockley(premio Nobel de física en 1956) en 1950, el cual fue defendido y desarrollado en los laboratorios Bell en 1956. Gordon Hall lideró el desarrollo en Morgan Stanley para su posterior comercialización por G.E.'s Frank W. "Bill" Gutzwiller.
TRANSISTOR DE UNION BIPOLAR
Es un dispositivo electrónico de estado sólido consistente en dos uniones PN muy cercanas entre sí, que permite controlar el paso de la corriente a través de sus terminales. La denominación de bipolar se debe a que la conducción tiene lugar gracias al desplazamiento de portadores de dos polaridades (huecos positivos y electrones negativos), y son de gran utilidad en gran número de aplicaciones; pero tienen ciertos inconvenientes, entre ellos su impedancia de entrada bastante baja.
Los transistores bipolares son los transistores más conocidos y se usan generalmente en electrónica analógica aunque también en algunas aplicaciones de electrónica digital, como la tecnología TTL o BICMOS.
Un transistor de unión bipolar está formado por dos Uniones PN en un solo cristal semiconductor, separados por una región muy estrecha. De esta manera quedan formadas tres regiones:
Emisor, que se diferencia de las otras dos por estar fuertemente dopada, comportándose como un metal. Su nombre se debe a que esta terminal funciona como emisor de portadores de carga.
Base, la intermedia, muy estrecha, que separa el emisor del colector.
Colector, de extensión mucho mayor.
La técnica de fabricación más común es la deposición epitaxial. En su funcionamiento normal, la unión base-emisor está polarizada en directa, mientras que la base-colector en inversa. Los portadores de carga emitidos por el emisor atraviesan la base, que por ser muy angosta, hay poca recombinación de portadores, y la mayoría pasa al colector. El transistor posee tres estados de operación: estado de corte, estado de saturación y estado de actividad.
TRIAC
Es un dispositivo semiconductor, de la familia de los transistores. La diferencia con un tiristor convencional es que éste es unidireccional y el TRIAC es bidireccional. De forma coloquial podría decirse que el TRIAC es un interruptor capaz de conmutar la corriente alterna.
Su estructura interna se asemeja en cierto modo a la disposición que formarían dos SCR en antiparalelo.
Posee tres electrodos: A1, A2 (en este caso pierden la denominación de ánodo y cátodo) y puerta. El disparo del TRIAC se realiza aplicando una corriente al electrodo puerta.
Su versatilidad lo hace ideal para el control de corrientes alternas.
Una de ellas es su utilización como interruptor estático ofreciendo muchas ventajas sobre los interruptores mecánicos convencionales y los relés.
Funciona como switch electrónico y también a pila.
Se utilizan TRIACs de baja potencia en muchas aplicaciones como atenuadores de luz, controles de velocidad para motores eléctricos, y en los sistemas de control computarizado de muchos elementos caseros. No obstante, cuando se utiliza con cargas inductivas como motores eléctricos, se deben tomar las precauciones necesarias para asegurarse que el TRIAC se apaga correctamente al final de cada semiciclo de la onda de Corriente alterna.
Debido a su poca estabilidad en la actualidad su uso es muy reducido.
TEGNOLOGIA ANALOGA Y DIGITAL
ANALOGA
Se refiere a las magnitudes o valores que varían con el tiempo en forma continua como la distancia y la temperatura, la velocidad, que podrían variar muy lento o muy rápido como un sistema de audio.
En la vida cotidiana el tiempo se representa en forma analógica por relojes (de agujas), y en forma discreta (digital) por displays digitales.
En la tecnología analógica es muy difícil almacenar, manipular, comparar, calcular y recuperar información con exactitud cuando esta ha sido guardada, en cambio en la tecnología digital (computadoras, por ejemplo), se pueden hacer tareas muy rápidamente, muy exactas, muy precisas y sin detenerse.
La electrónica moderna usa electrónica digital para realizar muchas funciones que antes desempeñaba la electrónica analógica.
Un ejemplo muy evidente es el hecho de que la música actualmente se graba en discos compactos (CD's), que previamente ha sido convertida a formato digital del original que es el formato analógico.
El equipo creado para reproducir la música grabada de esta manera está llena de circuitos lógicos digitales.
A diferencia, los discos de acetato (los discos de 45 r.p.m. y L.P. de color negro) utilizaban una aguja que recorría los surcos en el disco para poder reproducir la música grabada en forma analógica.
Nadie duda de la calidad de los discos compactos de hoy, pues tienen un sonido excelente.
DIGITAL
La tecnología digital es un factor que hizo su aparición hace poco tiempo, antes la mayor parte de los objetos o artefactos que comprábamos era de tipo análogos, hoy esos mismos aparatos que eran tan útiles hace 10 años ya son obsoletos para los quehaceres diarios. Desde las cafeteras, hasta los teléfonos, heladeras con monitores capaces de avisarnos si falta algo en nuestra heladera y de regular la temperatura hasta televisores LCD y cámaras digitales.
Pero para poder comprender la totalidad de la palabra es necesario dividirla, primero se debe definir tecnología y luego el adjetivo que la involucra, digital. La palabra tecnología, según la Real Academia Española es el estudio de las técnicas, medios y de los procesos utilizados en diferentes ramas industriales con el objetivo de ampliar la gama de descubrimientos científicos. Por su parte la palabra Digital, funciona o expresa a través de números.
Ya con ambos términos definidos llegamos a la conclusión que tecnología digital es el conjunto de procedimientos y estudios que son necesarios para poder realizar avances científicos que son expresados en números; también la misma permite aumentar y revitalizar de forma constante lo que se denomina calidad estándar de los elementos.
ZIF (INSERTION FORCE ZERO – CERO FUERZA DE INSERCION)
Concepto utilizado en el diseño de tomas de IC, inventada para evitar problemas causados por la aplicación de la fuerza tras la inserción y extracción.
Un circuito integrado (IC) requiere la toma de IC para ser empujado dentro de los contactos que luego surgieron agarre por fricción. Para un IC con cientos de pines, la fuerza de inserción total puede ser muy grande (decenas de Newtons), dando lugar a un peligro de daños en el dispositivo o el PCB. Además, incluso con pequeñas patillas relativamente cuenta cada extracción es bastante difícil y conlleva un riesgo significativo de que se doblen las patas (sobre todo si la persona que realiza la extracción no ha tenido mucha práctica o la Mesa Directiva está lleno). Baja fuerza de inserción (LIF) tomas de corriente reducen el problemas de inserción y extracción, pero menor es la fuerza de inserción de un enchufe convencional, el menos confiable la conexión es probable que sea.
Con una palanca giratoria, antes de la IC se inserta, una palanca o botón deslizable del lado del zócalo se mueve, empujando a todos los contactos surgieron aparte para que el CI se pueden insertar con muy poca fuerza (por lo general el peso de la propia IC es suficiente con ninguna fuerza externa a la baja es necesario). La palanca se mueve entonces hacia atrás, permitiendo que los contactos para cerrar y agarre los pines del CI. Zócalos ZIF son mucho más caros que el estándar enchufes IC y también tienden a ocupar un área del tablero mayor debido al espacio ocupado por el mecanismo. Por lo tanto, sólo se utilizan cuando hay una buena razón para hacerlo.
Grandes tomas ZIF sólo se encuentran comúnmente montados en PC placas base (a partir de mediados de la década de 1990 hacia adelante). Estos sockets de CPU están diseñadas para soportar un rango particular de CPU, permitiendo que los minoristas y los consumidores informáticos para montar la placa base / combinaciones de CPU basada en el presupuesto y requisitos individuales. El resto de la industria electrónica de haber abandonado tomas en gran parte y se trasladó a los componentes de montaje superficial directa soldado a la placa.
Pequeños zócalos ZIF se utilizan comúnmente en chip de prueba y programación de equipos, por ejemplo, programación y prueba de EEPROM, microcontroladores, etc.
CONEXIÓN POLO A TIERRA
CONECCIONES A TIERRA
Estudiaremos dos sistemas de conexiónes a tierra para protección de equipo.
1. Protección de Antenas contra descargas eléctricas (Rayo)
2. Protección de Líneas Eléctricas contra descargas eléctricas (Rayo)
ANATOMÍA DEL RAYO
Cuando se está formando una tormenta, las nubes se cargan eléctricamente, algunas toman cargas positivas y otras cargas negativas debido a la ionización del espacio circundante. La tierra es nuestra referencia y establecemos que tiene un voltaje de cero voltios o voltaje neutral.
En la Figura 1 podemos observar que hay tres nubes y la polaridad de la carga de cada una. La atmósfera al buscar un equilibrio produce una descarga eléctrica (que en Panamá llamamos Rayo). Esta descarga es un flujo de electrones que se mueven del punto negativo al punto positivo y puede darse entre las nubes como el Rayo#1, puede darse entre la torre y la nube positiva como vemos en el Rayo#2 o puede darse entre un objeto que sobresalga de la tierra y una nube con carga negativa.
SENTIDO DE LA CORRIENTE
Benjamín Franklin fue el precursor en el estudio de la corriente electrica al descubrir la electricidad a finales del Siglo XIX durante una tormenta eléctrica. Él estableció el concepto de cargas positivas y negativas. Haciendo analogía con los fluidos, asumió que la corriente eléctrica es similar que una corriente de agua que viaja de un lugar a otro. Para Benjamín Franklin, las cargas eléctricas viajan de un punto de mayor potencial a otro punto con menor potencial de la misma forma que el agua en una cascada cae de un punto de mayor altura a un punto de menor altura.
Cuando fue descubierto el átomo, en el estudio de éste, los científicos se percataron de la presencia de partículas con carga negativa (los electrones), partículas positivas (los protones) y partículas con carga neutra (neutrones). El modelo del átomo de Bohr establecido en 1913 es el modelo actual del átomo donde el núcleo lo forman los protones y neutrones que son partículas más pesadas, mientras que los electrones orbitan (dan vueltas) alrrededor del núcleo. Sabemos además que los electrones son mucho mas livianos que los protones, por lo tanto, cuando se da el movimiento de cargas electricas serán los electrones los que se mueven de un punto donde hay exceso de electrones hacia un punto donde hay menos electrones, es decir, del polo negativo al polo positivo.
Cuando los científicos llegaron a esta conclusión, había un choque con la teoría de Benjamín Franklin, pues él estableció que la corriente se daba del positivo al negativo, mientras que con el nuevo concepto del átomo la corriente viaja del polo negativo al positivo. Esto significaba que el concepto de la corriente era lo contrario de lo que se había pensado. No se podían tirar al cesto de basura todas fórmulas y realizar nuevamente todos los estudios realizados, pues el átomo de Niels Bohr fue presentado en el año 1913 y para ese tiempo ya habían muchas fórmulas en la cabeza de los hombres de ciencia. Para no chocar con los modelos establecidos, se consideró como "Corriente Convencional" la corriente que circula del polo positivo al polo negativo de la batería al pasar por el circuito eléctrico, mientras que la "Corriente Real" se debe al movimiento de los electrones y se da del polo negativo al polo positivo. En resumen, hemos aceptado el modelo de Franklin para el estudio de los circuitos pero sabemos que el sentido de la corriente es contrario puesto que las cargas que se mueven son los electrones por se más livianas.
Como sabemos que son los electrones los que producen la corriente, decimos que el Rayo#1 viaja de la nube negativa a la nube positiva. El Rayo#2 viaja de la torre hacia la nube. Éste es el sentido de la corriente porque el rayo se hace más grueso cerca de la nube (como un río) y sus afluentes son menores. El Rayo#3 cae sobre el árbol porque hay varias ramificaciones en la nube que se unen para formar un rayo de la misma forma que varios ríos pequeños se unen para formar un gran río que desemboca en el mar. Hacemos la salvedad que establecemos este modelo en base a los conceptos conocidos hasta ahora, pero si en un futuro cambia el modelo atómico, nuevamente puede cambiar la dirección de la corriente en los circuitos.
Para nuestro estudio de protección contra rayos, no es importante que el rayo caiga en la antena, o que suba a partir de ésta. El daño será el mismo puesto que por los circuitos circulará una corriente mucho mayor que la corriente que estableció el ingeniero que diseñó el circuito. Por eso, cuando se da el evento de un descarga eléctrica decimos en Panamá: "Cayó un Rayo" y en tu país no sé si se dice igual.
PROTECCIÓN PARA ANTENAS
Cuando cae un rayo, la corriente buscará el camino más corto para llegar a tierra, entonces debemos ayudar al rayo dándole paso expedito por un camino que le vamos a hacer y evitar que la corriente pase por los equipos.
Observamos en la Figura#2 que el pararayos tipo Franklin se instala en la parte más alta de la torre. Este pararayos es una varilla de cobre de 8 pies de largo, se le conecta un cable eléctrico AWG#2 o mayor y debe bajar paralelo a la torre hasta una varilla enterrada en la base de la torre. Observemos que cuando cae el rayo, debe hacerlo en el pararayos (el punto más alto de la torre) y le hemos conectado un cable para dirigir la descarga a tierra (en línea recta).
En el panel de alimentación eléctrica AC, también colocamos una varilla a tierra lo cual protegerá el equipo de descargas eléctricas provenientes de las líneas de alimentación eléctrica, pues el rayo no necesariamente debe caer en el pararayos que hemos instalado en nuestra torre.
Hay un pararayos que tiene muchas espigas en su extremo más alto. A este se le conoce con el nombre de "disipador". El principio de él es distinto, cuando hay una tormenta eléctrica, el disipador ioniza la atmósfera cercana a la torre y cubre inclusive la casa donde están los equipos. No me ha dado buenos resultados en algunos lugares donde hay muchas tormentas eléctricas porque el disipador desvía el rayo y cae sobre las líneas de tendido eléctrico. Me he dado cuenta de ésto, porque durante la tormenta eléctrica cuando cae el rayo, el transmisor queda "fuera del aire". Cuando voy a reparar el equipo, encuentro daño en la fuente de fuerza, lo cual indica que la descarga entró por la línea eléctrica. Por ahora prefiero el pararayos tipo Franklin.
CONECCIÓN A TIERRA
En la base de la torre y en la caseta del equipo los libros recomiendan enterrar una varilla de 6 u 8 pies de largo. El procedimiento por lo regular se realiza clavando la varilla en la tierra con la ayuda de un mazo. Sin embargo, en los lugares con suelos rocosos esta operación se vuelve casi imposible. En ese caso, usamos un tubo de cobre de 2 pulgadas de diámetro y 6 pies de largo al cual se le introduce sal sin refinar para mejorar la conductividad del suelo rocoso.
Preparamos este tubo haciéndole 4 huecos (uno por cada lado) cada 6" de longitud del tubo. En la parte inferior del tubo se aplana o se coloca un tapón fijo mientras que en la parte superior instalamos una tapa removible (llamada registro) donde se introduce sal. Cada 6 meses debemos revisar el nivel de la sal. Si ha bajado, debemos rellenar el tubo. Mi ayudante llama "flauta" a este tipo de tubo y viendo la construcción del tubo, diríamos que tiene toda la razón. También en la parte superior del tubo se coloca una armella de cobre donde se amarra o se suelda con estaño el cable de conexión a tierra.
Para instalar el tubo, abrimos con herramientas de jardinería y construcción un hueco en el suelo rocoso con una profundidad de 6 pies y un diámetro de 1 pie. Una vez que el tubo se coloca en forma vertical, rellenamos el hueco con la misma piedra mezclada con arena para mejorar la conductividad del suelo que rodea el tubo. Cuando el tubo está enterrado debe salir 2 o 3 pulgadas sobre la superficie del suelo donde tendremos el registro y la conexión al cable de tierra.
Una vez que el tubo está enterrado, quitamos la tapa removible y se introducen 4 tazas de sal sin refinar por la abertura superior. Esto llenará casi 2 pies de la altura del tubo. Luego se vierte una taza de agua para que la sal se diluya y salga por los agujeros mojando el suelo que rodea la varilla. Repetimos el proceso de introducir la sal y el agua hasta que el nivel de la sal esté 1 pulgada debajo del borde donde está el registro del tubo. Si es muy difícil enterrar el tubo en forma vertical, el tubo puede doblarse en forma de letra "L" y enterrarlo horizontalmente a una profundidad de 1 pie pero siempre dejando la boca del tubo perpendicular a la superficie del suelo y con la tapa de registro visible.
PROTECCIÓN DE LÍNEAS ELÉCTRICAS
Regularmente, en la caja de interruptores para los circuitos (breakers), se hace una conexión a tierra, según lo especificado por NEC (National Electric Code) o el "Manual para Instalaciones Eléctricas" establecido por la compañía de distribución eléctrica de su país. (Puede solicitar copia del manual en la compañía que le presta el servicio eléctrico).
Sin embargo, a las instalaciones debemos hacer ligeros cambios para proteger nuestros equipos contra rayos. Recordemos que el rayo viaja a 360,000 Km/s (que es la velocidad de la luz). Cuando un objeto viaja a esta velocidad, nos presenta ciertas características no contempladas en la Fisica Clásica, y en este caso, el flujo de electrones presenta cierta inercia. Como la descarga eléctrica tiene una duración de unos cuantos micro-segundos (millonésimas de segundo), podemos aprovecharnos de la inercia y hacer que el rayo pierda suficiente energía antes de llegar a nuestro equipo. Recordemos que la descarga viajará en línea recta y si damos varias vueltas a los cables, la descarga producto del rayo perderá energía con cada cambio de dirección.
Tomemos por ejemplo, la Figura#4, donde podemos ver que la alimentación eléctrica proveniente de la compañía de distribución entra al interruptor principal, luego llevamos la electricidad en una tubería PVC por el piso hasta llegar al protector de línea AC. Luego regresamos por el piso hasta el regulador de voltaje (si hay problemas de subida y bajada del voltaje donde están los transmisores). Del regulador de voltaje, pasamos al panel de interruptores breakers y es en este lugar donde colocamos la varilla de conexión a tierra. Del panel de los breakers destinamos un circuito al transmisor, otro para los equipos de enlace, otro para los tomacorrientes, otro para la iluminación del local y finalmente otro circuito para el sistema de iluminación de la torre.
Con todas estas vueltas, la descarga eléctrica del rayo tiene que llegar muy debilitada al equipo, pues el protector de línea tiene entre otros componentes los MOV (Metal Oxide Varistor), en el regulador de voltaje también hay los MOV y en la entrada de alimentación eléctrica del transmisor también hay MOV. Los MOV son dispositivos semiconductores que eliminan los picos de voltaje por encima del valor especificado. Para la instalación eléctrica en el local del transmisor, usamos MOVs con voltaje límite de 275 Volts puesto que los 240Vac no le harán efecto. Sin embargo, un voltaje mayor será absorbido por el MOV.
EXCESO DE TIERRA
En los estudios, donde hay equipos de audio, debemos instalar un solo ground interconectando todas las varillas de conexión a tierra con un cable de cobre tamaño AWG#8. Con esto evitamos un zumbido de 60Hz de baja intensidad llamado Hum y que se produce cuando hay dos conexiones a tierra en puntos distintos. El nivel de este Hum es muy bajo (menos de 50dB por debajo del nivel normal de audio) pero es audible cuando en la emisora el equipo está encendido y no hay música. Muchas veces se oye el zumbido cuando termina el disco y queda un espacio de tiempo antes del bloque de comerciales.
IMPEDANCIA
Es una magnitud que establece la relación (cociente) entre la tensión y la intensidad de corriente. Tiene especial importancia si la corriente varía en el tiempo, en cuyo caso, ésta, la tensión y la propia impedancia se describen con números complejos o funciones del análisis armónico. Su módulo (a veces impropiamente llamado impedancia) establece la relación entre los valores máximos o los valores eficaces de la tensión y de la corriente. La parte real de la impedancia es la resistencia y su parte imaginaria es la reactancia. El concepto de impedancia generaliza la ley de Ohm en el estudio de circuitos en corriente alterna (AC).El término fue acuñado por Oliver Heaviside en 1886. En general, la solución para las corrientes y las tensiones de un circuito formado por resistencias, condensadores e inductancias y sin ningún componente de comportamiento no lineal, son soluciones de ecuaciones diferenciales. Pero, cuando todos los generadores de tensión y de corriente tienen la misma frecuencia constante y sus amplitudes son constantes, las soluciones en estado estacionario (cuando todos los fenómenos transitorios han desaparecido) son sinusoidales y todas las tensiones y corrientes tienen la misma frecuencia que los generadores y amplitud constante. La fase, sin embargo, se verá afectada por la parte compleja (reactancia) de la impedancia.
El formalismo de las impedancias consiste en unas pocas reglas que permiten calcular circuitos que contienen elementos resistivos, inductivos o capacitivos de manera similar al cálculo de circuitos resistivos en corriente continua. Esas reglas sólo son válidas en los casos siguientes:
Si estamos en régimen permanente con corriente alterna sinusoidal. Es decir, que todos los generadores de tensión y de corriente son sinusoidales y de la misma frecuencia, y que todos los fenómenos transitorios que pueden ocurrir al comienzo de la conexión se han atenuado y desaparecido completamente.
Si todos los componentes son lineales. Es decir, componentes o circuitos en los cuales la amplitud (o el valor eficaz) de la corriente es estrictamente proporcional a la tensión aplicada. Se excluyen los componentes no lineales como los diodos. Si el circuito contiene inductancias con núcleo ferromagnético (que no son lineales), los resultados de los cálculos sólo podrán ser aproximados y eso, a condición de respetar la zona de trabajo de las inductancias.
Cuando todos los generadores no tienen la misma frecuencia o si las señales no son sinusoidales, se puede descomponer el cálculo en varias etapas en cada una de las cuales se puede utilizar el formalismo de impedancias.
DEFINICION
Sea un componente electrónico o eléctrico o un circuito alimentado por una corriente sinusoidal . Si la tensión a sus extremidades es , la impedancia del circuito o del componente se define como un número complejo cuyo módulo es el cociente y cuyo argumento es .
Es la oposición total (Resistencia, Reactancia inductiva, Reactancia capacitiva) sobre la corriente
Como las tensiones y las corrientes son sinusoidales, se pueden utilizar los valores pico (amplitudes), los valores eficaces, los valores pico a pico o los valores medios. Pero hay que cuidar de ser uniforme y no mezclar los tipos. El resultado de los cálculos será del mismo tipo que el utilizado para los generadores de tensión o de corriente.
HISTORIA DEL INTERNET
Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos.
Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.
Orígenes de Internet.
La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica).
El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red.
En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.
Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada.
A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.
Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5).
En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamadosinterface message processors (IMPs, procesadores de mensajes de interfaz).
El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6).
A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .
El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ).
Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host ahost fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de"storage displays" ( N. del T. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red.
Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy.
Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.
En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en laInternational Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico.
En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación.
En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.
Conceptos iniciales sobre Internetting.
La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.
Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking(trabajo entre redes). Hasta ese momento, había un sólo método para "federar" redes.
Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente.
Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicioend-to-end (extremo a extremo).
En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red.
No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado.
Entonces, el programa fue llamado Internetting . La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.
Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s.
Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "Transmisson-Control Protocol/Internet Protocol" (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver(manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.
Ideas a Prueba.
DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). El equipo de Stanford, dirigido por Cerf, produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar.
Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Partiendo de las tres primeras redes ARPANET, radio y satélite y de sus comunidades de investigación iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó nuevos desafíos.
Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa (desktop ), TCP era demasiado grande y complejo como para funcionar en ordenadores personales. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible.
La desarrollaron, primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de IBM. Esta implementación operaba con otras de TCP, pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal, y demostraba que las estaciones de trabajo, al igual que los grandes sistemas, podían ser parte de Internet.
En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El cambio que supone pasar de una pocas redes con un modesto número de hosts (el modelo original de ARPANET) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología.
En primer lugar, hubo que definir tres clases de redes (A, B y C) para acomodar todas las existentes. La clase A representa a las redes grandes, a escala nacional (pocas redes con muchos ordenadores); la clase B representa redes regionales; por último, la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores).
Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a loshost s de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas.
El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo, las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s. Esto llevó a la invención del DNS ( Domain Name System , sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo, www.acm.org o www.ati.es ) en direcciones de Internet.
El incremento del tamaño de Internet resultó también un desafío para los routers . Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que el número de redes en Internet se multiplicaba, el diseño inicial no era ya capaz de expandirse, por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol , protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP (Exterior Gateway Protocol , protocolo externo de pasarela) usado para mantener unidas las regiones.
El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que los requisitos de coste, velocidad de configuración, robustez y escalabilidad, podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers , también lo hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR, Classless Interdomain Routing , enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento.
A medida que evolucionaba Internet, la propagación de los cambios en el software, especialmente el de los host s, se fue convirtiendo en uno de sus mayores desafíos. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora.
BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. Visto en perspectiva, la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet.
Uno de los desafíos más interesantes fue la transición del protocolo para host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión.
La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP").
TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes, en 1980. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación.
Así, en 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas.
La transici1ón hacia una infraestructura global.
Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.
El Departamento norteamericano de Energía (DoE, Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN y Rick Adrion, David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS (National Science Foundation , Fundación Nacional de la Ciencia) de Estados Unidos.
La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado.
Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM (8).
Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. De hecho, una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus".
En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general, junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. Se adoptaron varias políticas y estrategias para alcanzar estos fines.
La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet Activities Board , Comité de Actividades de Internet). La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF.
El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. En su vida de ocho años y medio, el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000 redes en los cinco continentes y en el espacio exterior, con aproximadamente 29.000 redes en los Estados Unidos.
El efecto del ecumenismo del programa NSFNET y su financiación (200 millones de dólares entre 1986 y 1995) y de la calidad de los protocolos fue tal que en 1990, cuando la propia ARPANET se disolvió, TCP/IP había sustituido o marginado a la mayor parte de los restantes protocolos de grandes redes de ordenadores e IP estaba en camino de convertirse en elservicio portador de la llamada Infraestructura Global de Información.
El papel de la Documentación.
Un aspecto clave del rápido crecimiento de Internet ha sido el acceso libre y abierto a los documentos básicos, especialmente a las especificaciones de los protocolos.
Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. Sin embargo, el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas, esencial para crear redes.
En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer la serie de notas RFC ( Request For Comments , petición de comentarios). Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. Al principio, las RFC fueron impresas en papel y distribuidas vía correo "lento". Pero cuando el FTP ( File Transfer Protocol , protocolo de transferencia de ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP.
Hoy en día, desde luego, están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. SRI, en su papel como Centro de Información en la Red, mantenía los directorios online . Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos, tareas en las que continúa hoy en día.
El efecto de las RFC era crear un bucle positivo de realimentación, con ideas o propuestas presentadas a base de que una RFC impulsara otra RFC con ideas adicionales y así sucesivamente. Una vez se hubiera obtenido un consenso se prepararía un documento de especificación. Tal especificación seria entonces usada como la base para las implementaciones por parte de los equipos de investigación.
Con el paso del tiempo, las RFC se han enfocado a estándares de protocolo –las especificaciones oficiales- aunque hay todavía RFC informativas que describen enfoques alternativos o proporcionan información de soporte en temas de protocolos e ingeniería. Las RFC son vistas ahora como los documentos de registro dentro de la comunidad de estándares y de ingeniería en Internet.
El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a Internet- promueve el crecimiento de Internet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas.
El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de Internet, lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos, estándares técnicos e ingeniería en Internet. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. Después de empezar a usarse el correo electrónico, el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común, independientemente de su localización.
Las listas de correo especializadas ha sido usadas ampliamente en el desarrollo de la especificación de protocolos, y continúan siendo una herramienta importante. El IETF tiene ahora más de 75 grupos de trabajo, cada uno dedicado a un aspecto distinto de la ingeniería en Internet. Cada uno de estos grupos de trabajo dispone de una lista de correo para discutir uno o más borradores bajo desarrollo. Cuando se alcanza el consenso en el documento, éste puede ser distribuido como una RFC.
Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información, deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet.
El futuro: Internet 2.
Internet2 es el futuro de la red de redes y está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores.
Sus objetivos están enfocados a la educación y la investigación académica. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda.
CODIGO RETIE
CODIGO DE COLORES PARA CABLES CONDUCTORES
Con el objeto de evitar accidentes por mala interpretación de los niveles de tensión y unificar los criterios para instalaciones eléctricas, se debe cumplir el código de colores para conductores establecido en la Tabla 13 (tabla 4 de este documento). Se tomará como válida para determinar este requisito el color propio del acabado exterior del conductor o en su defecto, su marcación debe hacerse en las partes visibles con pintura, con cinta o rótulos adhesivos del color respectivo. Este requisito es también aplicable a conductores desnudos, como barrajes.
CODIGOS DE CORRIENTE NORMAL Y REGULADA
El Artículo 47 del RETIE, Numeral 1 Certificación de Productos establece:
Los materiales, aparatos, máquinas, conjuntos y subconjuntos, a ser utilizados en las instalaciones eléctricas en Colombia, a los que se refiere el RETIE, deben cumplir los requisitos del presente Reglamento que les sean de aplicación y demostrarlo a través del Certificado de Conformidad del que trata el presente capítulo, previo a su comercialización”. Por otra parte, el mismo artículo señala: “Previamente a su comercialización, los fabricantes, importadores o comercializadores de los productos sometidos a este Reglamento Técnico, deben demostrar su cumplimiento a través
de un Certificado de Conformidad expedido por un Organismo de Certificación de Producto acreditado por la Superintendencia de Industria y Comercio.
Para cada uno de los tipos de cables en todos los procesos de la energía eléctrica, CENTELSA cuenta con el respectivo Certificado de Conformidad respaldado por entidades colombianas como el CIDET9 y el ICONTEC o internacionales como UL10 de Estados Unidos, LAPEM11 y ANCE12 en México, FONDONORMA13 en Venezuela, CTL14 de Estados Unidos, entre otras.
CONCUSIONES
El Reglamento Técnico para Instalaciones Eléctricas establece el cumplimiento de Conformidad con Norma de todos los productos que componen una instalación eléctrica.
Para cada uno de los procesos de la cadena de la energía eléctrica, desde la generación hasta el uso final, CENTELSA ofrece un producto que se adecúa a los requerimientos técnicos y de seguridad del RETIE, de la NTC 2050 y de las normas establecidas para cada producto.
Los Cables y Conductores Eléctricos son el medio para el transporte de la energía eléctrica y constituyen una parte trascendental en las instalaciones que inciden sobre la seguridad de los operadores y usuarios, por lo tanto las Entidades Certificadoras y los Inspectores pondrán especial énfasis en la verificación de los requisitos establecidos por el Reglamento (RETIE) y el Código Eléctrico Colombiano (NTC 2050).
CONVERSION (ANALOGO/DIGITAL – DIGITAL/ANALOGO)
ANALOGO/DIGITAL
La conversión analógica-digital (CAD) consiste en la transcripción de señales analógicas en señales digitales, con el propósito de facilitar su procesamiento (codificación, compresión, etc.) y hacer la señal resultante (la digital) más inmune al ruido y otras interferencias a las que son más sensibles las señales analógicas.
Una señal analógica es aquella cuya amplitud (típicamente tensión de una señal que proviene de un transductor y amplificador) puede tomar en principio cualquier valor, esto es, su nivel en cualquier muestra no está limitado a un conjunto finito de niveles predefinidos como es el caso de las señales cuantificadas.
Esto no quiere decir que se traten, en la práctica, de señales de infinita precisión (un error muy extendido): las señales analógicas reales tienen todas un ruido que se traduce en un intervalo de incertidumbre. Esto quiere decir que obtenida una muestra de una señal analógica en un instante determinado, es imposible determinar cuál es el valor exacto de la muestra dentro de un intervalo de incertidumbre que introduce el ruido. Por ejemplo, se mide 4,3576497 V pero el nivel de esa muestra de la señal de interés puede estar comprendida entre 4,35 V y 4,36 V y no es físicamente posible determinar ésta con total precisión debido a la naturaleza estocástica del ruido. Sólo el más puro azar determina qué valores se miden dentro de ese rango de incertidumbre que impone el ruido. Y no existe (ni puede existir) ningún soporte analógico sin un nivel mínimo de ruido, es decir, de infinita precisión. Por otro lado, si se pudiera registrar con precisión infinita una señal analógica significaría, de acuerdo con la Teoría de la Información, que ese medio serviría para registrar infinita información; algo totalmente contrario a las leyes físicas fundamentales de nuestro universo y su relación con la entropía de Shannon.
En cambio, una señal digital es aquella cuyas dimensiones (tiempo y amplitud) no son continuas sino discretas, lo que significa que la señal necesariamente ha de tomar unos determinados valores fijos predeterminados en momentos también discretos.
Las señales analógicas no se diferencian, por tanto, de las señales digitales en su precisión (precisión que es finita tanto en las analógicas como en las digitales) o en la fidelidad de sus formas de onda (distorsión). Con frecuencia es más fácil obtener precisión y preservar la forma de onda de la señal analógica original (dentro de los límites de precisión impuestos por el ruido que tiene antes de su conversión) en las señales digitales que en aquéllas que provienen de soportes analógicos, caracterizados típicamente por relaciones señal a ruido bajas en comparación.
DIGITALIZACION
La digitalización o conversión analógica-digital (conversión A/D) consiste básicamente en realizar de forma periódica medidas de la amplitud (tensión) de una señal (por ejemplo, la que proviene de un micrófono si se trata de registrar sonidos, de un sismógrafo si se trata de registrar vibraciones o de una sonda de un osciloscopio para cualquier nivel variable de tensión de interés), redondear sus valores a un conjunto finito de niveles preestablecidos de tensión (conocidos como niveles de cuantificación) y registrarlos como números enteros en cualquier tipo de memoria o soporte. La conversión A/D también es conocida por el acrónimo inglés ADC (analogue to digital converter).
En esta definición están patentes los cuatro procesos que intervienen en la conversión analógica-digital:
Muestreo: El muestreo (en inglés, sampling) consiste en tomar muestras periódicas de la amplitud de onda. La velocidad con que se toma esta muestra, es decir, el número de muestras por segundo, es lo que se conoce como frecuencia de muestreo.
Retención: (En inglés, hold): las muestras tomadas han de ser retenidas (retención) por un circuito de retención (hold), el tiempo suficiente para permitir evaluar su nivel (cuantificación). Desde el punto de vista matemático este proceso no se contempla, ya que se trata de un recurso técnico debido a limitaciones prácticas, y carece, por tanto, de modelo matemático.
Cuantificación: En el proceso de cuantificación se mide el nivel de voltaje de cada una de las muestras. Consiste en asignar un margen de valor de una señal analizada a un único nivel de salida. Incluso en su versión ideal, añade, como resultado, una señal indeseada a la señal de entrada: el ruido de cuantificación.
Codificación: La codificación consiste en traducir los valores obtenidos durante la cuantificación al código binario. Hay que tener presente que el código binario es el más utilizado, pero también existen otros tipos de códigos que también son utilizados.
DIGITAL/ANALOGA
En electrónica, dispositivo que convierte una entrada digital (generalmente binaria) a una señal analógica (generalmente voltaje o carga eléctrica). Los conversores digital-analógico son interfaces entre el mundo abstracto digital y la vida real analógica. La operación reversa es realizada por un conversor analógico-digital (ADC).
Este tipo de conversores se utiliza en reproductores de sonido de todo tipo, dado que actualmente las señales de audio son almacenadas en forma digital (por ejemplo, MP3 y CDs), y para ser escuchadas a través de los altavoces, los datos se deben convertir a una señal analógica. Los conversores digital-analógico también se pueden encontrar en reproductores de CD, reproductores de música digital, tarjetas de sonidos de PC, etc.
Mediante una suma ponderada de los dígitos de valor 1 se consigue, en forma muy simple, un conversor digital-analgico rápido; la ponderación puede hacerse con una serie de resistencias en progresión geométrica (cada una mitad de la anterior), lo cual obliga a utilizar un amplio rango de resistencias, o bien mediante una red R-2R que efectúa sucesivas divisiones por 2.
Puede convertirse una tensión en número binario utilizando un conversor opuesto D/A, a través de la comparación entre la tensión de entrada y la proporcionada por dicho conversor D/A aplicado a un generador d números binarios; se trata de aproximar el número-resultado a aquel cuya correspondiente tensión analógica es igual a la de entrada. La aproximacón puede hacerse d unidad en unidad, mediante un simple contador, o dígito a dígito mediante un circuito secuencial específico.
En los sistemas digitales la precisión viene dada por la utlización de dos símbolos 1/0 y por la separación entre las tensiones que los representan. En cambio, en el tratamiento de tensiones analógicas y, por tanto, en los conversores D/A y A/D, hemos de preocuparnos de la precisión y de las diversas causas de error que le afectan: desplazamiento del origen, linealidad, resolución,...
Se inluye en este capítulo, por amplitud, a conversión tensión-frecuencia (V → f), que puede servir también (añadiéndole un frecuencímetro) con conversión A/D. Conceptualmente la conversión analógica-digital consiste en realizar la suma ponderada de los diversos dígitos que configran el número binario; el valor relativo de cada uno de ellos viene dado por la correspondiene potencia de 2:
Esta suma puede realizarse mediante un sencillo circuito sumador con resistencias ponderadas (según la relación R, R/2, R/4, R8, R/16...).
Supuesto que las tensiones que corresponden a los valores booleanos sean 0 y +V: Vo = - (R' / R). (+V). (D0 + 2.D1 + 4.D2 + 8.D3 +... ). El último paréntesis de la expresión anterior expresa el valor del número binario ... D3 D2 D1 D0 y el factor inicial V.R'/R determina el valor de tensión asignado a cada unidad; las resistencias R' y R permiten ajustar dicho valor a la tensión unitaria que se desee.
Resulta un circuito sumamente sencillo para obtener una tensión analógica a partir de las tensiones de los dígitos binarios del número que se desea convertir. Habida cuenta de que la etapa sumadora es inversora, se obtendrá una tensión negativa, que puede transformarse fácilmente en positiva mediante una segunda etapa amplificadora inversora de ganancia unidad.
Las tensiones booleanas que presentan los diversos dígitos de un número binario (salidas de los correspondientes terminales del circuito digital, generalmente salidas de circuitos integrados) no ofrecen adecuada precisión: ambas tensiones, VoL ≈ 0 V y VoH ≈ +V, no son valores muy precisos.
Por ello, para aumentar la precisión del conversor, no se utilizan directamente las tensiones de los dígitos a convertir sino una tensión única de referencia de alta precisión, la cual se conecta (caso de dígito de valor 1) o no (valor 0) a las correspondientes resistencias sumadoras mediante interruptores; además, para disminuir los efectos capacitivos propios de los conmutadores y aumentar la velocidad de conmutación, ésta se efectúa entre dos posiciones de igual tensión.
Cada conmutador se conecta hacia la entrada del amplificador cuando el valor del correspondiente dígito es 1; en otro caso, se conecta directamente hacia la línea de 0 V. Vo = - (R' / R). Vref.. (D0 + 2.D1 + 4.D2 + 8.D3 +... ). La precisión de este conversor depende de la precisión de las resistencias y de la tensión de referencia así como de las características del amplificador operacional, especialmente en lo relativo a tensión y corrientes de offset.
Ahora bien, esta red sumadora requiere resistencias de valores muy diferentes (por ejemplo para 12 bits ha de llegarse desde R hasta R/4096), siendo extremadamente difícil integrar tal diversidad de resistencias con la precisión necesaria. Por ello, resulta preferible utilizar una red de resistencias R-2R en escalera o red divisora de tensión, que posee la propiedad de que la resistencia de carga vista desde cualquier nudo de la red hacia adelante es de idéntico valor: 2R.
Esta red de resistencias tiene la propiedad de que en cada nudo se encuentran en paralelo sendas resistencias de igual valor 2R, una de las cuales es la equivalente del resto del circuito; de forma que en cada nudo la intensidad de divide en dos partes iguales y, de esta forma, cada nudo realiza una división de la tensión del nudo anterior por 2.
Utilizando este tipo de red como sumadora, mediante conmutadores entre dos posiciones (ambas con tensión de referencia 0 V) según el esquema siguiente, puede obtenerse un conversor D/A que solamente utiliza dos valores de resistencias R y 2R.
La segunda etapa amplificadora sirve para que la tensión de salida sea positiva e introduce la amplificación con el factor R'/R. Habida cuenta la sucesiva división de tensiones e intensidades que se produce en cada nudo:
Con este tipo de red sumadora se configura una amplia gama de conversores D/A integrados, de alta precisión, ya que es posible conseguir gran precisión en la red de resistencias y en la tensión de referencia (utilizando un zener de alta precisión bien estabilizado). Ello permite asegurar una fuerte linealidad en la conversión, con errores inferiores a la mitad del paso en tensión correspondiente a una unidad.
Los conversores D/A más comunes de este tipo son de 8 y de 12 bits; un conversor de 8 bits permite una resolución de 256, es decir, para un intervalo de conversión 0-10 V a cada unidad le corresponden aproximadamente 40 mV; la resolución de un conversor de 12 bits es de 4096 pasos, 2.5 mV.
En tecnología MOS los conmutadores se realizan mediante transistores NMOS alternativos, entre cuyos terminales de puerta se conecta un inversor; se consiguen tiempos de respuesta globales (desde que se presenta el valor digital, hasta que aparece el correspondiente valor analógico) inferiores al microsegundo. Además, en aplicaciones relativas a la generación de ondas, en las cuales la salida va siguiendo sucesivamente valores próximos de la onda a generar, el tiempo de transición entre un valor y otro resulta mucho menor, pudiéndose alcanzar frecuencias superiores a 10 MHz.
En el caso bipolar se configuran generadores de intensidad ponderados, mediante redes R-2R incluyendo transistores en las mismas; la configuración en amplificador diferencial permite conmutar tales intensidades entre las dos posiciones con altas velocidades de respuesta, consiguiéndose tiempos de conmutación del orden de 10 ns. La utilización de una referencia de tensión negativa evita la necesidad de utilizar el segundo amplificador inversor.
En todos los conversores D/A anteriormente considerados la tensión de salida es proporcional al número binario aplicado a sus entradas: Vo = Vu.N, siendo Vu el paso en tensión correspondiente a una unidad; a veces (por ejemplo en la generación digital de ondas senoidales o de otras formas de onda) interesa otro tipo de funciones Vo = f(N) distintas de la simple proporcionalidad.
Para ello puede efectuarse una transformación digital previa del número N a un número N' tal que f(N) = Vu.N', de manera que un conversor D/A proporcional aplicado sobre N' servirá para generar la tensión analógica deseada; la conversión intermedia (de N a N') puede ser realizada por un conversor de código o codificador ROM.
Cuando no se requiere gran precisión en la tensión de salida, puede obtenerse directamente la función Vo = f(N) mediante un multiplexor analógico (formado por puertas de transmisión) controlado por el número N, según el esquema siguiente.
A un valor concreto N le corresponderá una tensión Vo = R'.Vref./ RN, que puede ser ajustada al valor deseado mediante la resistencia RN; caso de que la función f(N) adopte también valores negativos, bastará conectar las resistencias correspondientes a una tensión de referencia positiva +Vre.
0 Response for the "Circuitos Electronicos"
Publicar un comentario