Diseño: prometheos.es.tl

   
  tallertecnologicosantiago
  Los Sistema Tecnologico
 


Los sistemas tecnológicos


1. ¿Que es el
sistema tecnológico
?


Cuando hablamos de sistema tecnológico nos vamos a referir a un
conjunto de elementos y variables que van a contextuar la acción técnica
humana. Aunque en sentido explícito el sistema tecnológico debería quedar
incluido dentro del sistema técnico, históricamente la técnica es anterior a la
tecnología. Nosotros vamos a tomar el nombre sistema tecnológico como un
genérico que nos permita establecer las conexiones de una técnica con el sistema
técnico en el que se inserta. También veremos, dentro del amplio marco del
sistema tecnológico, las relaciones del sistema técnico con el sistema
productivo que lo posibilita y el conjunto de relaciones que mantiene con otros
subsistemas como pueden ser: los recursos, los sistemas de intercambio, los
conflictos, los mecanismos de poder o los impactos que todo el entramado puede
generar.


Esquema


Consideraremos los Sistemas
Técnicos
como núcleo para el estudio de las relaciones entre la Ciencia,
la Técnica y la Sociedad. Sólo podemos comprender globalmente el funcionamiento
de un Sistema Técnico cualquiera dentro de un contexto más amplio que es el
Sistema
Productivo
del que forma parte y lo constituye. De este toma los recursos,
justifica las relaciones de
intercambio,
pueden entenderse los
conflictosy las
relaciones de
poderque
genera, así como los
impactoso
consecuencias que la dinámica del propio sistema técnico o del más amplio
sistema productivo crean.


 


2. La maquina como sistema


 


 


Seguramente habrás oído hablar de las
máquinas virtuales o de herramientas como VMWare, VirtualPC o Virtual Server
2005, (que es el que usaremos como base de todo lo que te vaya contando en este
y en próximos artículos).


Y si no sabes de que te estoy
hablando, te explico brevemente que es una máquina virtual (virtual machine
en inglés).


Una máquina virtual es un sistema
operativo que funciona de forma "simulada", es decir, es como tener
un ordenador dentro de tu ordenador, pero funcionando de forma
"virtual", es decir, en realidad no tienes un ordenador dentro de tu
ordenador, ya que eso es imposible, pero lo que hacen los programas como los
que te he mencionado antes es simular que tienes otro ordenador funcionando
dentro del tuyo.


En realidad las máquinas virtuales
son eso: simulaciones de otros ordenadores pero en modo "soft", es
decir, el programa simula que tiene una bios, una memoria, unas conexiones de
red, puertos, discos duros, etc., pero todo de forma "simulada".


Y lo bueno que tienen esas máquinas
virtuales es que puedes instalar cualquier sistema operativo en ellas, incluso
sistemas operativos diferentes al sistema operativo real, por ejemplo, supongamos
que tenemos un
Windows XP, dentro de ese XP podemos tener
desde un Linux hasta un Windows 2003 Server pasando por un Windows Vista.


Cuando instalas un sistema operativo
en una máquina virtual es como si instalaras el sistema operativo desde cero,
incluso puedes formatear un disco, crear particiones, etc., todo igual que si
fuera un ordenador normal y corriente.


Lo bueno de tener o usar máquinas
virtuales es que en realidad no es necesario que tengas más discos duros ni más
CD o DVD, ya que todo es "simulado", puedes crear discos duros
virtuales que en realidad son también "simulados", ya que en realidad
son ficheros que el programa crea y en el que instala todo lo que quieras
instalar.


Además de los discos simulados (o
virtuales), también puedes usar cosas que ya tienes en tu equipo, por ejemplo,
un CD o un DVD, la impresora, otro disco duro "real", etc.

Pero también puedes "simular" cosas que no tienes, por ejemplo una
disquetera o incluso un CD o DVD, esto es útil cuando quieres probar cosas que
necesitan de esa disquetera que ya casi nadie usa.

Y la ventaja de usar los CD o DVD simulados es que puedes trabajar con
"imágenes" como si fueran discos compactos reales. Esas imágenes son
las que los propios programas de grabación crean, y que suelen tener
extensiones como .iso o .img.


Cuando indicas la memoria a usar,
siempre debes disponer de esa memoria, además por supuesto de la que el programa
"simulador" requiera, por regla general el programa
"virtualizador" te indica de cuanta memoria máxima (y recomendable)
puedes asignar.


 


 


3. Hable de la fase paleotécnica


La fase paleo técnica alcanzó su punto culminante en
Londres a mitad del siglo XIX, en la primera Exposición Mundial celebrada en el
nuevo Palacio de Cristal de Hyde Park en 1851, una victoria aparente para el
libre comercio, la libre empresa, el invento libre y el libre acceso a todos
los mercados mundiales. Este período puede considerarse que se inició en 1700,
en 1870 como su punto culminante y en 1900 como su punto descendente. Pero es a
partir de 1750 cuando realmente comienzan los grandes cambios industriales, y
se distinguen varias etapas diferenciadas en relación al desarrollo industrial
experimentado.


 


 


4. hable de la técnica democrática


El
Departamento Administrativo de Ciencia, Tecnología e Innovación, Colciencias,


presenta
a todos los que hacen, piensan y se interesan por la apropiación social de la


CT+I,
esta publicación titulada Ciencia, Tecnología y Democracia: reflexiones en
torno a


la
apropiación social del conocimiento
, memorias y reflexiones
suscitadas a partir del Foro



Taller Nacional de Apropiación Social de la Ciencia y la Tecnología, que se
realizó en


la
Universidad EAFIT de Medellín, en el segundo semestre del 2010.


Los
artículos de ponencias y mesas de trabajo son un valioso aporte para continuar


las
discusiones sobre apropiación, un concepto resultado de más de cuarenta años


de
reflexión sobre las prácticas en divulgación, cultura científica,
popularización,


Comunicación
de la ciencia, la tecnología y la innovación, enseñanza, estudios sociales


de la
ciencia, estudios en ciencia, tecnología y sociedad en Colombia y del trabajo


Constante
de muchos profesionales que desde diversas áreas del saber han contribuido


a la
construcción de una cultura basada en el conocimiento.


Sin
lugar a dudas, las nociones y apuestas conceptuales por la apropiación se han


desplazado
y se han dinamizado gracias al trabajo dedicado de quienes en el país han


Diseñado
y realizado diversas estrategias y actividades para acercar y hacer posible el
uso


Del
conocimiento científico y tecnológico por parte de la sociedad.


Desde
su creación, Colciencias propicia y apoya espacios de encuentro, debate


y
construcción de postulados para que la política pública en ciencia, tecnología
e


Innovación sea
realmente eficaz en el país. Por esta razón los foros sobre apropiac


5. el sistema es
coherencia de estructura y de líneas


La DMA puede llevar a problemas de coherencia
de caché. Imagine una CPU equipada con una memoria caché y una memoria externa
que se pueda acceder directamente por los dispositivos que utilizan DMA. Cuando
la CPU accede a X lugar en la memoria, el valor actual se almacena en la caché.
Si se realizan operaciones posteriores en X, se actualizará la copia en caché
de X, pero no la versión de memoria externa de X. Si la caché no se vacía en la
memoria antes de que otro dispositivo intente acceder a X, el dispositivo
recibirá un valor caducado de X.


Del mismo modo, si la copia en caché de X no es
invalidada cuando un dispositivo escribe un nuevo valor en la memoria, entonces
la CPU funcionará con un valor caducado de X.


Este problema puede ser abordado en el diseño del
sistema de las siguientes dos formas :



  • Los sistemas de caché coherente
         implementan un método en el hardware externo mediante el cual se escribe
         una señal en el controlador de caché, la cual realiza una invalidación de
         la caché para escritura de DMA o caché de descarga para lectura de DMA.

  • Los sistemas no-coherente dejan este software,
         donde el sistema operativo debe asegurarse de que las líneas de caché se
         vacían antes de que una transferencia de salida de DMA sea iniciada y
         anulada antes de que una parte de la memoria sea afectada por una transferencia
         entrante de DMA que se haya requerido. El sistema operativo debe
         asegurarse de que esa parte de memoria no es accedida por cualquier
         subproceso que se ejecute en ese instante. Este último enfoque introduce
         cierta sobrecarga a la operación de DMA, ya que la mayoría de hardware
         requiere un bucle para invalidar cada línea de caché de forma individual.



Los híbridos también existen, donde en la caché
secundaria L2 es coherente, mientras que en la caché L1 (generalmente la CPU)
es gestionado por el software.


6. el sistema hace parte del fenómeno tecnico


El
entrelazamiento cuántico (Quantenverschränkung, originariamente
en
alemán) es una propiedad predicha en 1935 por Einstein, Podolsky y Rosen (en lo sucesivo
EPR) en su formulación de la llamada
paradoja EPR. El término fue
introducido en 1935 por
Erwin Schrödinger para describir un fenómeno de mecánica cuántica que se demuestra en los experimentos pero no se ha
comprendido del todo. En este caso las partículas entrelazadas (en su término
técnico en inglés: entangled) no pueden definirse como partículas
individuales con estados definidos, sino más bien como un
sistema.


Es un fenómeno cuántico,
sin equivalente clásico, en el cual los
estados cuánticos
de dos o más objetos se deben describir haciendo referencia a los estados
cuánticos de todos los objetos del sistema, incluso si los objetos están
separados espacialmente. Esto lleva a correlaciones entre las propiedades
físicas observables. Por ejemplo, es posible preparar (enlazar) dos partículas
en un solo estado cuántico de forma que cuando se observa que una gira hacia
arriba la otra siempre girará hacia abajo, pese a la imposibilidad de predecir,
según los postulados de la
mecánica cuántica,
qué estado cuántico se observará.


Esas fuertes correlaciones hacen que las medidas
realizadas sobre un sistema parezcan estar influyendo instantáneamente otros
sistemas que están enlazados con él, y sugieren que alguna influencia se
tendría que estar propagando instantáneamente entre los sistemas, a pesar de la
separación entre ellos.


No obstante, no parece que se pueda transmitir información
clásica a velocidad superior a la de la luz mediante el entrelazamiento porque
no se puede transmitir ninguna información útil a más velocidad que la de la
luz. Sólo es posible la transmisión de información usando un conjunto de
estados entrelazados en conjugación con un canal de información clásico,
también llamado
teleportación cuántica.
Mas, por necesitar de ese canal clásico, la información útil no podrá superar
la velocidad de la luz.


El entrelazamiento cuántico fue en un principio
planteado por sus autores (
Einstein,
Podolsky
y
Rosen) como un argumento en contra
de la
mecánica cuántica,
en particular con vistas a probar su incompletitud puesto que se puede
demostrar que las correlaciones predichas por la mecánica cuántica son
inconsistentes con el principio del
realismo local,
que dice que cada partícula debe tener un estado bien definido, sin que sea
necesario hacer referencia a otros sistemas distantes.


Con el tiempo se ha acabado definiendo como uno de
los aspectos más peculiares de esta teoría, especialmente desde que el físico
norirlandés
John S. Bell diera un nuevo
impulso a este campo en los años 60 gracias a un refinado análisis de las
sutilezas que involucra el entrelazamiento. La propiedad matemática que subyace
a la propiedad física de entrelazamiento es la llamada
no separabilidad.
Además, los sistemas físicos que sufren entrelazamiento cuántico son
típicamente sistemas
microscópicos
(todos los que se conocen de hecho lo son), pues en el ámbito
macroscópico
esta propiedad se pierde en general debido al fenómeno de la
decoherencia.
Aun así, un
nuevo experimento
logro con diamantes milimétricos el citado entrelazamiento, llevando asi a
nivel macroscópico el entrelazamiento.


El entrelazamiento es la base de tecnologías en
fase de desarrollo, tales como la
computación cuántica[n. 1 o la criptografía cuántica,
y se ha utilizado en experimentos de
teleportación cuántica.


 


7. el sistema como práctica
tecnológica


 


Se caracteriza a la práctica
tecnológica


como una forma superior de la
práctica social,


como proceso de transformación
y apropiación racional


y consciente y como actividad
organizada


de los sistemas sociales
concretos. De esta manera


se revelan sus diferencias con
las prácticas científicas


y culturales y su unidad
dialéctica-productiva.


 


 


1. INTRODUCCION.


 


 


La sociedad humana es un
sistema concreto, un r-:


sistema social cuya composición
contiene el hombre


(1). Este, como toda cosa en el
universo, no


existe solo, sino en
interacción con los otros hombres


y con el ambiente. El hombre es
un ser histórico-


social, capaz de organizar sus
actividades,


transmitir su aprendizaje,
descubrir ciertas cosas,


crear objetos nuevos y
esencialmente es un ser capaz


de determinar fines y medios
para las cosas


que apropia. La mediatez de sus
acciones, la racionalidad


que lo caracteriza es un
resultado histórico,


producto del largo proceso que
lleva del hombreanimal


al hombre-racional. Las
relaciones, conexiones


e interacciones que ha
desarrollado el hombre


en su proceso evolutivo han
dado como resultado


la "sociedad", como
sistema íntegro, con sus


subsistemas sociales y las
organizaciones humanas.


La sociedad es un sistema
homosocionatural, cuyo


subsistema controlador es el
hombre organizado


con su actividad optimizadora y
con su responsabilidad


por el destino de todo el
sistema, el cual se


desarrolla y crea permanentemente.


La historia de la humanidad no
es más que la


lucha de las masas por
transformar a la naturaleza,


a la sociedad misma y al
hombre. Estas son las


tres clases de lucha que
realizan los componentes


sociales en el interior de un
sistema de relaciones


históricas concretas (formación
social específica)


(2). La lucha por transformar
la naturaleza está


dirigida a crear los bienes
sociales. La lucha por


mejorar o cambiar las
relaciones sociales está dirigida


a la modificación de la
sociedad y la lucha


por convertir a los hombres en
dueños del mundo


y de la sociedad tiende a
transformar al hombre


mismo.


8. un sistema de acciones


Considerar al espacio geográfico como
un conjunto indisoluble, solidario y contradictorio de sistemas de objetos y
sistemas de acciones, implica que además de un espacio físico, se requiere un
sistema de acciones que permite la transformación del espacio a través de la
acción social y por tanto de la producción, en este sentido el espacio
geográfico no puede desligarse de la acción humana que lo transforma en un
tiempo. Es precisamente la acción social la que permitió la creación del
municipio de Medellín, la ubicación de los primeros pobladores alrededor de los
sistemas fluviales, la expansión del territorio y la ocupación del espacio hacen
parte de un sistema de acciones, que han permitido la configuración del
territorio como lo vemos hoy y los sistemas de producción del municipio.


 


9. los sistemas tecnológicos tienen momentum


El fabricante de discos duros por excelencia acaba de anunciar este hito
en su historia. La venta de más de un millón de unidades Seagate Momentus XT
es algo más que una anécdota en el largo camino que esta compañía ha hecho, significa
la implantación de un nuevo formato de disco duro. Los Momentus XT son HDDs de
2,5 pulgadas con una particularidad: Son unidades híbridas HDD+SSD con una
velocidad de transferencia de datos superior a la de otros discos duros.


Seagate ha dado con la clave para incluir en nuestros ordenadores
portátiles
discos duros muy eficientes sin
que tengamos que pagar desorbitadas cantidades. Para maximizar la velocidad de
transferencia, y reducir los tiempos de acceso, la firma ha incluido en este
modelo de HDD portátil una pequeña memoria flash de 4GB que actúa a modo
de caché, creando una "memoria previa" muy rápida y de acceso
inmediato, que nos ayuda a escribir y leer información desde los platos mucho
más rápido, tanto, que podría llegar a compararse con algunas unidades
SSD sin quedarse a la
zaga.


La parte mecánica de los discos Momentus XT se mueve a 7,200 rpm,
y este hecho también contribuye a que la escritura y lectura de datos sea más
veloz, al girar un 25% más rápido que la mayoría de discos duros montados de
serie por los fabricantes en cualquier ordenador portátil de consumo. La serie
Momentus XT se encuentra en tres versiones con capacidades de 250, 320 y
500GB
en interfaz SATA II 3Gbps, y cuenta con 32MB de buffer, y una
latencia de aproximadamente 4 milisegundos de promedio.


La solución más
parecida actualmente es la que ofrece el chipset
Z68 de Intel, que ofrece unos resultados
similares en ordenadores de sobremesa cuando se instala una unidad SSD para que
este sirva como caché para potenciar la velocidad de un disco duro
convencional. Evidentemente, y aunque optemos por las unidades más pequeñas, el
precio será superior al de este sistema de
Seagate, pero nos otorgará
mayor velocidad sin tener que optar a un sistema SSD completo.


 


10. el concepto impulso tecnologico


Durante
los últimos veinticinco años se ha tratado de mostrar que el cambio tecnológico
no sigue un camino lineal y univoco como era planteado por Rostow en la teoría
de la modernización, donde señala que todas las sociedades pasan por unas
etapas de crecimiento, ligadas a una satisfacción tecnológica y una integración
social tales que al final alcanzaran un “punto de despegue”, base de la
prosperidad material; sino que este cambio es relativo . Gracias a las
innumerables investigaciones realizadas por sociólogos e investigadores, esta
teoría de Rostow fue abolida debido a su limitación en algunas sociedades y
como solución a este dilema surgen formas de describir y detallar el cambio
tecnológico de una manera detallada arrojando como resultado la importancia de
los grupos sociales, quienes son los verdaderos actores del cambio tecnológico;
este tipo de pensamiento es llamado “constructivismo social” que se enfrenta a
su opositor el “determinismo tecnológico”, adicionalmente como una forma de
conciliar estas dos corrientes surge el “impulso tecnológico “ planteado por
Thomas Hughes.



El impulso tecnológico se sitúa entre los extremos del determinismo tecnológico
y el constructivismo social, Hughes se refiere a este modelo como un concepto
mas valioso que el determinismo tecnológico y constructivismo porque depende
del tiempo y además es sensible a los cambios sociales; en este punto es
importante aclarar los conceptos de determinismo tecnológico y constructivismo
social, el primero cree que las fuerzas técnicas son las que determinan los
cambios sociales y culturales y el segundo supone que las fuerzas sociales y
culturales determinan el cambio técnico. Entre la gran brecha de estos dos
términos se sitúa el impulso tecnológico, un concepto integrador que da la misma
relevancia a las fuerzas sociales como a las técnicas y consiste en que el
desarrollo social configura y es configurado por la tecnología.


 


11. el socioecosistema tecnológico


Tomas Huges
definió a un sistema tecnológico como un conjunto heterogéneo, conformado por
pleromas (artefactos), creaturas (personas), organizaciones, dispositivos
legales y recursos naturales. El sistema funciona a través de las interacciones
de los elementos que lo componen. Por ello Huges, se preguntó “¿El sistema
configura a la sociedad o la sociedad configura al sistema? Por otra parte
Quintanilla dice que se debe caracterizar a un sistema tecnológico a través de
sus componentes, estructura y objetivos, además ve a la tecnología no como una
ciencia sino como una unidad compleja, donde su uso dependerá de los valores y
la cultura de la sociedad. Bryan Winne, en cuanto a un sistema tecnológico,
toma más en cuenta aspectos sociales sobre lo técnico, a él le interesa como
las personas en una sociedad utilizan la tecnología, es entender a la
tecnología como un socioecosistema, donde la práctica tecnológica es lo
central.


Para retomar lo anterior, vamos a tomar un ejemplo,
las organizaciones y el uso de las redes sociales. Una organización obviamente
con el paso del tiempo ha cambiado y se ha tenido que adaptar a su entorno,
antes la forma de trabajo era como una máquina, donde los trabajadores, era
sólo como una pieza de ese artefacto, aquí se aplicaría la teoría científica de
la administración Posteriormente algunas empresas han cambiado su forma de
organización donde lo humano es el elemento principal, un buen trato, salarios
justos, motivación, etc. son factores que mejoran el desempeño de los
trabajadores. Sin embargo, el elemento humano, no lo será todo, las
organizaciones poco a poco han tenido que hacer uso del sistema tecnológico,
para ahorrar costos, tiempo y obtener más beneficios en cuanto a ventas y
clientes.


 


12. nota de cierre


La
décimo octava edición de SICUR, Salón Internacional de la Seguridad, celebrada
entre los días 28 de febrero al 2 de marzo de 2012, cerró sus puertas con un
positivo balance de resultados. La feria, organizada por IFEMA, reunió la
oferta 1.233 empresas -524 de participación directa- y recibió la visita de
38.840 profesionales, unos datos que confirman la capacidad de convocatoria de
este salón consolidado como uno de los referentes más destacados del calendario
europeo de ferias del sector.


Otro
dato a subrayar de SICUR 2012 ha sido su alcance internacional, tanto desde el
punto de vista de la participación, que ha significado el 35% con la presencia
directa de empresas de 21 países, como en la afluencia de visitantes del
exterior cifrada, en esta ocasión, en 2.872 profesionales de 80 países.


En
este capítulo, también hay que señalar la importante presencia de profesionales
de Portugal, que ha supuesto un 45% del total de visitantes del exterior, así
como de 17 países Iberoamericanos, con un 10%, entre los que destacan por
número y en este orden, Venezuela, Brasil, Méjico y Colombia. Del entorno
europeo –además de Portugal- el mayor número de visitas correspondió a Italia,
Francia, Reino Unido y Alemania. También ha sido especialmente significativa en
esta edición, la presencia de un grupo de 60 profesionales procedentes de
Rusia; 30 de Estados Unidos, y el notable incremento de visitantes procedentes
de India, Corea y Kuwait. En cuanto al ámbito nacional, los resultados de esta
edición indican que el 48% de los visitantes procedieron de fuera de Madrid,
principalmente de Cataluña, Andalucía, Valencia, Castilla- Leon y País Vasco,
aunque se registró la presencia de profesionales de todas las Comunidades
Autónomas, así como de las ciudades de Ceuta y Melilla.Por otra parte, y de
forma simultánea a la exhibición comercial, SICUR fue escenario de celebración
de múltiples actividades, exhibiciones y encuentros profesionales que se
desarrollaron con gran éxito de asistencia. Entre ellas, el programa de
conferencias Foro SICUR que a lo largo de las cuatro jornadas de feria, reunió
a 900 asistentes, o el Brokerage Event, organizado por Madrid+d, los días 28 y
29 de febrero, que contó con la participación de 120 entidades y que generó más
de 200 entrevistas de trabajo orientadas a la transferencia de tecnología en
seguridad. Otros focos de atención de SICUR 2012 se situaron en la Galería de
Nuevos Productos, que este año destacó 31 propuestas especialmente
protagonizadas por las aplicaciones de tecnologías disponibles en el ámbito de
la seguridad, así como por desarrollos tecnológicos concretos; los diferentes
simulacros y maniobras de rescate llevados a cabo por los Bomberos de la Ciudad
de Madrid; la Unidad Canina de Bomberos(UCAB); la Asociación Española de
Escoltas (ASES); el I Encuentro Profesional de Trabajos Verticales en España,
organizado por la Asociación Nacional de Empresas de Trabajos Verticales
(ANETVA); la exposición de vehículos policiales antiguos, RETORPOL IV, o el
XIII Concurso Fotográfico Emergencia 112. Todas estas actividades, unidas a la
amplia oferta en Seguridad Pública y Privada, Emergencias, Seguridad Contra
Incendios y Seguridad Laboral, reunida en los pabellones de SICUR, ofrecieron
un espacio divulgativo y de información de alta repercusión en los diferentes
entornos profesionales implicados en el mundo de la seguridad, así como en
numerosos medios de comunicación, tanto sectoriales y generalistas que durante
cuatro días otorgaron a la seguridad un absoluto protagonismo. SICUR también
fue el marco elegido por diversas asociaciones y entidades clave del sector de
la de seguridad para la celebración de sus asambleas, reuniones de trabajo, y
otras actividades como la presentación del Informe sobre la percepción social
de la seguridad en España, que realizará la Fundación ESYS; la jornada sobre
Evolución de los Accidentes no laborales en la Sociedad, que organiza la
Fundación Mapfre; la celebración del Día del Fuego de TECNIFUEGO – AESPI y la,
entrega del I Premio SCI a la Inspección de la seguridad contra incendios, o la
reunión del Agora de Decanos de la Seguridad, entre otras.


 


13.
realice las actividades de la guía


1.
Con base en la propuesta de quintanilla
(1.998)
sobre el sistema técnico, en grupos pequeños propongan un ejemplo de sistema técnico, identificando los componentes materiales e intencionales, las estructuras,
objetivos y resultados. Reflexionen sobre el grado de madurez del sistema, teniendo en cuenta lo planteado por Hughes y su concepto de
momentum tecnológico


2.
Elabore una tabla comparativa entre las diferentes definiciones  de
sistema técnicos o tecnológicos vistas en el capitulo, en donde se planteen las formas de entender las partes del sistema, sus relaciones y el
papel de los grupos humanos en ellos.


 


Desarrollo


1R//


 


 


 


14. los sistemas eléctricos de potencia


La expresión Electrónica de Potencia se
utiliza para diferenciar el tipo de aplicación que se le da a dispositivos
electrónicos, en este caso para transformar y controlar voltajes y corrientes
de niveles significativos. Se diferencia así este tipo de aplicación de otras
de la electrónica denominadas de baja potencia o también de corrientes débiles.


En este tipo de aplicación se reencuentran la
electricidad y la electrónica, pues se utiliza el control que permiten los
circuitos electrónicos para controlar la conducción (encendido y apagado) de
semiconductores de potencia para el manejo de corrientes y voltajes en
aplicaciones de potencia. Esto al conformar equipos denominados
convertidores estáticos de potencia.


De esta manera, la electrónica de potencia
permite adaptar y transformar la energía eléctrica para distintos fines tales
como alimentar controladamente otros equipos, transformar la energía eléctrica
de contínua a alterna o viceversa, y controlar la velocidad y el funcionamiento
de maquinas eléctricas, etc. mediante el
empleo
de dispositivos electrónicos, principalmente
semiconductores.
Esto incluye tanto aplicaciones en
sistemas de control,
sistemas de
compensación de factor de potencia
y/o de armónicos como para
suministro eléctrico
a consumos industriales o incluso la interconexión de sistemas eléctricos de
potencia de distinta frecuencia.


El principal objetivo de esta disciplina es el
manejo y transformación de la
energía
de una forma eficiente, por lo que se evitan utilizar elementos resistivos,
potenciales generadores de pérdidas por
efecto Joule.
Los principales dispositivos utilizados por tanto son
bobinas
y
condensadores,
así como semiconductores trabajando en modo corte/saturación (on/off, encendido
y apagado).


Aplicaciones


Las principales aplicaciones de los convertidores electrónicos de potencia
son las siguientes:



  • Fuentes de alimentación: En la actualidad han
         cobrado gran importancia un subtipo de fuentes de alimentación
         electrónicas, denominadas
    fuentes de alimentación conmutadas. Estas fuentes se caracterizan por su elevado rendimiento y
         reducción de volumen necesario. El ejemplo más claro de aplicación se
         encuentra en la fuente de alimentación de los
    ordenadores.

  • Control de motores eléctricos: La utilización de convertidores electrónicos permite controlar
         parámetros tales como la posición, velocidad o par suministrado por un
         motor. Este tipo de control se utiliza en la actualidad en los sistemas de
         aire acondicionado. Esta técnica, denominada comercialmente como
         "inverter" sustituye el antiguo control encendido/apagado por
         una regulación de velocidad que permite ahorrar energía. Asimismo, se ha
         utilizado ampliamente en tracción ferroviaria, principalmente en vehículos
         aptos para corriente continua (C.C.)durante las décadas de los años 70 y
         80, ya que permite ajustar el consumo de energía a las necesidades reales
         del motor de tracción, en contraposición con el consumo que tenían los
         vehículos controlados por resistencias de arranque y frenado. Actualmente
         el sistema chopper sigue siendo válido, pero ya no se emplea en la
         fabricación de nuevos vehículos, puesto que actualmente se utilizan
         equipos basados en el motor trifásico, mucho más potente y fiable que el
         motor de colector.

  • Calentamiento por inducción: Consiste en el calentamiento de un material conductor a través del
         campo generado por un inductor. La alimentación del inductor se realiza a
         alta frecuencia, generalmente en el rango de los kHz, de manera que se
         hacen necesarios convertidores electrónicos de frecuencia. La aplicación
         más vistosa se encuentra en las cocinas de inducción actuales.

  • Otras: Como se ha comentado anteriormente son innumerables las
         aplicaciones de la electrónica de potencia. Además de las ya comentadas
         destacan:
    sistemas de
         alimentación ininterrumpida
    ,
         sistemas de control del factor de potencia, balastos electrónicos para
         iluminación a alta frecuencia, interfase entre fuentes de energía
         renovables y la red eléctrica, etc.



Las líneas de investigación actuales buscan la
integración de dispositivos de potencia y control en un único chip, reduciendo
costes y multiplicando sus potenciales aplicaciones. No obstante existen
dificultades a salvar como el
aislamiento
entre zonas trabajando a altas tensiones y circuitería de control, así como la
disipación
de la potencia perdida.


 


15.
el sistema de corriente alterna


 Se denomina corriente alterna (abreviada CA
en español y AC en inglés, de alternating current) a la corriente
eléctrica
en la que la magnitud y el sentido varían
cíclicamente. La forma de oscilación de la corriente alterna más comúnmente
utilizada es la de una oscilación sinusoidal (figura 1), puesto que
se consigue una transmisión más eficiente de la energía. Sin embargo, en
ciertas aplicaciones se utilizan otras formas de oscilación periódicas,
tales como la triangular o la cuadrada.


Utilizada genéricamente, la CA se refiere a la
forma en la cual la electricidad llega a los hogares y a las empresas. Sin
embargo, las señales de audio y
de radio
transmitidas por los cables eléctricos,
son también ejemplos de corriente alterna. En estos usos, el fin más importante
suele ser la transmisión y recuperación de la información codificada (o modulada)
sobre la señal de la CA.


Historia


En el año 1882 el físico, matemático, inventor e
ingeniero Nikola Tesla,
diseñó y construyó el primer motor de inducción de CA. Posteriormente el físico
William
Stanley
, reutilizó, en 1885, el principio de inducción para
transferir la CA entre dos circuitos eléctricamente aislados. La idea central
fue la de enrollar un par de bobinas
en una base de hierro común, denominada bobina de inducción. De este modo se
obtuvo lo que sería el precursor del actual transformador. El sistema usado hoy
en día fue ideado fundamentalmente por Nikola Tesla; la distribución de la
corriente alterna fue comercializada por George
Westinghouse
. Otros que contribuyeron en el desarrollo y mejora
de este sistema fueron Lucien
Gaulard
, John
Gibbs
y Oliver
Shallenger
entre los años 1881 y 1889. La corriente alterna
superó las limitaciones que aparecían al emplear la corriente continua (CC), el
cual es un sistema ineficiente para la distribución de energía a gran escala
debido a problemas en la transmisión de potencia, comercializado en su día con
gran agresividad por Thomas Edison.


La primera transmisión interurbana de la corriente
alterna ocurrió en 1891, cerca de Telluride, Colorado, a la que siguió algunos
meses más tarde otra en Alemania.
A pesar de las notorias ventajas de la CA frente a la CC, Thomas Edison siguió
abogando fuertemente por el uso de la corriente continua, de la que poseía
numerosas patentes (véase la guerra
de las corrientes
). De hecho, atacó duramente a Nikola Tesla y a
George Westinghouse, promotores de la corriente alterna, a pesar de lo cual
ésta se acabó por imponer. Así, utilizando corriente alterna, Charles
Proteus Steinmetz
, de General Electric, pudo solucionar
muchos de los problemas asociados a la producción y transmisión eléctrica, lo
cual provocó al fin la derrota de Edison en la batalla de las corrientes,
siendo su vencedor Nikola Tesla y su financiador George Westinghouse.


Corriente alterna frente a corriente continua


La razón del amplio uso de la corriente alterna
viene determinada por su facilidad de transformación, cualidad de la que carece
la corriente
continua
. En el caso de la corriente continua la elevación de la
tensión se logra conectando dínamos en serie, lo cual no es muy práctico, al
contrario en corriente alterna se cuenta con un dispositivo: el transformador,
que permite elevar la tensión de una forma eficiente.


La energía eléctrica
viene dada por el producto de la tensión,
la intensidad
y el tiempo. Dado que la sección de los conductores de las líneas de transporte
de energía eléctrica depende de la intensidad, podemos, mediante un transformador, elevar el voltaje
hasta altos valores (alta
tensión
), disminuyendo en igual proporción la intensidad de
corriente. Con esto la misma energía puede ser distribuida a largas distancias
con bajas intensidades de corriente y, por tanto, con bajas pérdidas por causa
del efecto Joule y otros efectos
asociados al paso de corriente tales como la histéresis o las corrientes
de Foucault
. Una vez en el punto de consumo o en sus cercanías,
el voltaje puede ser de nuevo reducido para su uso industrial o doméstico y
comercial de forma cómoda y segura.


Las matemáticas y la CA sinusoidal


Algunos tipos de oscilaciones periódicas tienen el
inconveniente de no tener definida su expresión matemática, por lo que no se
puede operar analíticamente con ellas. Por el contrario, la oscilación sinusoidal
no tiene esta indeterminación matemática y presenta las siguientes ventajas:


·       La
función seno está perfectamente definida mediante su expresión analítica y
gráfica. Mediante la teoría de los números complejos se analizan con suma
facilidad los circuitos
de alterna
.


·       Las
oscilaciones periódicas no sinusoidales se pueden descomponer en suma de una
serie de oscilaciones sinusoidales de diferentes frecuencias que reciben el
nombre de armónicos. Esto es una aplicación directa de las series de Fourier.


·       Se
pueden generar con facilidad y en magnitudes de valores elevados para facilitar
el transporte de la energía eléctrica.


·       Su
transformación en otras oscilaciones de distinta magnitud se consigue con facilidad
mediante la utilización de transformadores.


Oscilación senoidal


Artículo principal: Senoide.


 


 


Figura 2: Parámetros
característicos de una oscilación sinusoidal.


Una señal sinusoidal, , tensión,
, o corriente,
, se puede expresar matemáticamente según sus
parámetros característicos (figura 2), como una función del tiempo por medio de
la siguiente ecuación:




donde


es la amplitud en voltios o amperios (también llamado valor
máximo o de pico
),


la pulsación en radianes/segundo,


el tiempo en segundos,
y


el ángulo de fase inicial en radianes.


Dado que la velocidad angular es más interesante
para matemáticos que para ingenieros, la fórmula anterior se suele expresar
como:




donde f es la frecuencia en hercios (Hz) y equivale a la
inversa del período
. Los valores más empleados en la distribución son
50 Hz y 60 Hz.


 


 


 
   
 
Diseño: prometheos.es.tl
Este sitio web fue creado de forma gratuita con PaginaWebGratis.es. ¿Quieres también tu sitio web propio?
Registrarse gratis