viernes, 31 de octubre de 2008

COMPONENTES ACTIVOS Y PASIVOS

Componentes activos

Los componentes activos son aquellos que son capaces de excitar los circuitos o de realizar ganancias o control del mismo. Fundamentalmente son los generadores electricos y ciertos componentes semiconductores. Estos últimos, en general, tienen un comportamiento no lineal, esto es, la relación entre la tensión aplicada y la corriente demandada no es lineal.

Los componentes activos semiconductores derivan del diodo de fleming y del triodo de lee de forest. En una primera generación aparecieron las valvulasque permitieron el desarrollo de aparatos electrónicos como la radio o la television. Posteriormente, en una segunda generación, aparecerían los que más tarde darían paso a los semiconductores circuitos integrados (tercera generación) cuya máxima expresión se encuentra en los circuitos programables microprocesador y microcontrolador) que pueden ser considerados como componentes, aunque en realidad sean circuitos que llevan integrados millones de componentes.

En la actualidad existe un número elevado de componentes activos, siendo usual, que un sistema electrónico se diseñe a partir de uno o varios componentes activos cuyas características lo condicionará. Esto no sucede con los componentes pasivos. En la siguiente tabla se muestran los principales componentes activos junto a su función más común dentro de un circuito.

Componente Función más común
amplificador operacional
Amplificación, regulación, conversión de señal, conmutación.
biestable
Control de sistemas secuenciales.
PLD
Control de sistemas digitales.
DIAC
Control de potencia.
Diodo
Rectificación de señales, regulación, multiplicador de tensión.
Diodo Zener

Regulación de tensiones.
FPGA
Control de sistemas digitales.
Memoria
Almacenamiento digital de datos.
Microprocesador
Control de sistemas digitales.
Microcontrolador
Control de sistemas digitales.
Pila
Generación de energía eléctrica.
Tiristor
Control de potencia.
Puerta logica
Control de sistemas combinacionales.
Transistor Amplificación, conmutación.
TriacPuerta Logic Control de potencia.

Componentes pasivos

Existe una amplia variedad de este tipo de componentes, tanto en forma como en funcionalidad y en características. En la siguiente tabla se indican los principales componentes pasivos junto a su función más común dentro de un circuito.

Componente Función más común
Altavoz Reproducción de sonido....
Cable Conducción de la electricidad.
Condensador Almacenamiento de energía, filtrado, adaptación impedancias.
Conmutador Reencaminar una entrada a una salida elegida entre dos o más.
Fusible Protección contra sobre-intensidades.
Inductor Adaptación de impedancias.
Interruptor Apertura o cierre de circuitos manualmente.
Potenciómetro Variación la corriente eléctrica o la tensión.
Relé Apertura o cierre de circuitos mediante señales de control.
Resistor División de intensidad o tensión, limitación de intensidad.
Transductor Transformación de una magnitud física en una eléctrica (ver enlace).
Transformador Elevar o disminuir tensiones, intensidades, e impedancia aparente
Varistor Protección contra sobre-tensiones.
Visualizador Muestra de datos o imágenes.

"SATELITE SIMON BOLIVAR"

SATELITE SIMON BOLIVAR

LANZAMIENTO DE NUESTRO SATELITE "SIMON BOLIVAR"

Este miércoles 29 de octubre, a las 12:24 del mediodía, Venezuela selló su independencia tecnológica con el lanzamiento del satélite Simón Bolívar, conocido internacionalmente con las siglas Venesat-1, cuya misión principal es asistir al desarrollo social, cultural y educativo del país y de Latinoamérica.

El satélite fue lanzado desde el Centro de Satélites de Xichang, ubicado en el suroeste de China. Millones de venezolanos se hicieron parte de este evento a través del Sistema de Medios del Estado venezolano y del canal estatal chino CCTV, que transmitieron en directo el conteo regresivo y el posterior lanzamiento del cohete Larga Marcha 3B.

El presidente de la República, Hugo Chávez, acompañado por el mandatario boliviano, Evo Morales, hizo el seguimiento del lanzamiento del satélite, al que calificó como socialista y con objetivos de soberanía, integración y solidaridad para los pueblos del Sur.

Con un tiempo de vida útil de quince años, el satélite Simón Bolívar fue construido por la Academia China de Tecnología Espacial, institución que además formó a profesionales venezolanos para el manejo del satélite.

El Venesat-1 tardará entre cinco y diez días en llegar a su órbita final, a 36.500 kilómetros de altura. Una vez esté en órbita y haya desplegado sus paneles solares, comenzarán las "Pruebas de Certificación en Órbita", proceso que dura entre uno y dos meses, donde se harán diferentes pruebas al satélite y sus componentes.

Se estima que para el 20 de diciembre de este mismo año, el Ministerio del Poder Popular para Ciencia y Tecnología entregará a Cantv los servicios del satélite, institución encargada de administrar su uso.

lunes, 27 de octubre de 2008

historia de la electronica

Historia de la Electronica

Se considera que la electrónica comenzó con el diodo de vacío inventado por john Ambrose fleming en 1904. El funcionamiento de este dispositivo está basado en el efecto de edison. edison fue el primero que observó en 1883 la emisión termoionica, al colocar una lámina dentro de una bombilla para evitar el ennegrecimiento que producía en la ampolla de vidrio el filamento de carbon. Cuando se polarizaba positivamente la lámina metálica respecto al filamento, se producía una pequeña corriente entre el filamento y la lámina. Este hecho se producía porque los electrones de los atomos del filamento, al recibir una gran cantidad de energia en forma de calor, escapaban de la atracción del núcleo (emisión termoiónica) y, atravesando el espacio vacío dentro de la bombilla, eran atraídos por la polaridad positiva de la lámina.

El otro gran paso lo dio lee de forest cuando inventó el triodo en 1906. Este dispositivo es básicamente como el diodo de vacío, pero se le añadió una rejilla de control situada entre el catodo y la placa, con el objeto de modificar la nube electrónica del cátodo, variando así la corriente de placa. Este fue un paso muy importante para la fabricación de los primeros amplificadores de sonido, receptores de radio, televisores, etc.

Conforme pasaba el tiempo, las valvulas de vacio se fueron perfeccionando y mejorando, apareciendo otros tipos, como los tetrodos (válvulas de cuatro electrodos), los pentodos (cinco electrodos), otras válvulas para aplicaciones de alta potencia, etc. Dentro de los perfeccionamientos de las válvulas se encontraba su miniaturización.

Pero fue definitivamente con el transisitor, aparecido de la mano de Bardeen y Brattain, de la Bell telephone, en 1948, cuando se permitió aún una mayor miniaturización de aparatos tales como las radios. El transistor de union apareció algo más tarde, en 1949. Este es el dispositivo utilizado actualmente para la mayoría de las aplicaciones de la electrónica. Sus ventajas respecto a las son entre otras: menor tamaño y fragilidad, mayor rendimiento energético, menores tensiones de alimentación, etc. El transistor no funciona en vacío como las válvulas, sino en un estado sólido valvulas semiconductor (silicio), razón por la que no necesita centenares de voltios de tensión para funcionar.

A pesar de la expansión de los semiconductores, todavía se siguen utilizando las válvulas en pequeños círculos audiofilos, porque constituyen uno de sus mitos más extendidos.

El transistor tiene tres terminales (el emisor, la base y el colector) y se asemeja a un triodo: la base sería la rejilla de control, el emisor el cátodo, y el colector la placa. Polarizando adecuadamente estos tres terminales se consigue controlar una gran corriente de colector a partir de una pequeña corriente de base.

En 1958 se desarrolló el primer circuito integrado, que alojaba seis transistores en un único chip. En 1970 se desarrolló el primer microprocesador, intel 4004. En la actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias disciplinas especializadas. La mayor división es la que distingue la electronica analogica de la electronica digital.

La electrónica en sí es la rama de actualidad y de la civilización moderna de nuestro futuro. La sustitución de las lámparas de descarga por los transistores supuso un paso de gigante consistente en la miniaturización. La electrónica moderna nace con el transistor, en los años 1950.

Aplicaciones de la electrónica

La electrónica desarrolla en la actualidad una gran variedad de tareas. Los principales usos de los circuitos electrónicos son el control, el procesado, la distribución de informacion, la conversión y la distribución de la energia electrica. Estos dos usos implican la creación o la detección de campos electomagneticos y corrientes electricas. Entonces se puede decir que la electrónica abarca en general las siguientes áreas de aplicacion:

  • Electronica de control
  • Telecomunicaciones
  • Electronica de potencia

Sistemas electrónicos

Un sistema electrónico es un conjunto de circuitos que interactúan entre sí para obtener un resultado. Una forma de entender los sistemas electrónicos consiste en dividirlos en las siguientes partes: o Inputs –Sensores (o transductores) electrónicos o mecánicos que toman las señales (en forma de temperatura, presión, etc.) del mundo físico y las convierten en señales de corriente o voltaje. Ejemplo: El termopar, la foto resistencia para medir la intensidad de la luz, etc.

  1. Entradas Circuitos de procesamientos de señales – Consisten en piezas electrónicas conectadas juntas para manipular, interpretar y transformar las señales de voltaje y corriente provenientes de los transductores.
  2. Salidas o OutputsActuadores u otros dispositivos (también transductores) que convierten las señales de corriente o voltaje en señales físicamente útiles. Por ejemplo: un display que nos registre la temperatura, un foco o sistema de luces que se encienda automáticamente cuando este obscureciendo.

Básicamente son tres etapas: La primera (transductor), la segunda (circuito procesador) y la tercera (circuito actuador).

Como ejemplo supongamos un televisor. Su entrada es una señal de difusión recibida por una antena o por un cable. Los circuitos de procesado de señales del interior del televisor extraen la información sobre el brillo, el color y el sonido de esta señal. Los dispositivos de salida son un tubo de rayos catodicos que convierte las señales electrónicas en imagenes visibles en una pantalla y unos altavoces. Otro ejemplo puede ser el de un circuito que ponga de manifiesto la temperatura de un proceso, el transductor puede ser un termocouple, el circuito de procesamiento se encarga de convertir la señal de entrada en un nivel de voltaje (comparador de voltaje o de ventana) en un nivel apropiado y mandar la información decodificándola a un display donde nos dé la temperatura real y si esta excede un límite preprogramado activar un sistema de alarma (circuito actuador) para tomar las medida pertinentes.

Circuitos electrónicos

Se denomina circuito electronico a una serie de elementos o componentes eléctricos (tales como resistencias, inductancias, condensadores y fuentes) o electrónicos, conectados eléctricamente entre sí con el propósito de generar, transportar o modificar señales electrónicas. Los circuitos electrónicos o eléctricos se pueden clasificar de varias maneras:

Por el tipo de información Por el tipo de régimen Por el tipo de señal Por su configuración
Analogicos
Digitales
Mixtos
Periodico
Transitorio
Permanente
De corriente continua
De corriente alterna
Mixtos
Serie Paralelo
Mixtos

Componentes

Para la sintesis
de circuitos electrónicos se utilizan componentes electronicos e instrumentos electronicos. A continuación se presenta una lista de los componentes e instrumentos más importantes en la electrónica, seguidos de su uso más común:

  • Altavoz: reproducción de sonido.
  • Cable: conducción de la electricidad.
  • Conmutador: reencaminar una entrada a una salida elegida entre dos o más.
  • Interruptor: apertura o cierre de circuitos, manualmente.
  • Pila: generador de energía eléctrica.
  • Transductor: transformación de una magnitud física en una eléctrica (ver enlace).
  • Visualizador: muestra de datos o imágenes.

Dispositivos analógicos

  • Amplificador operacional: amplificación, regulación, conversión de señal, conmutación.
  • Capacitador: almacenamiento de energía, filtrado, adaptación impedancias.
  • Diodo: rectificación de señales, regulación, multiplicador de tensión.
  • Diodo Zener: regulación de tensiones.
  • Inductor: adaptación de impedancias.
  • potenciometro: variación de la corriente eléctrica o la tensión.
  • Rele: apertura o cierre de circuitos mediante señales de control.
  • Resistor: división de intensidad o tensión, limitación de intensidad.
  • Transistor: amplificación, conmutación.

Dispositivos digitales

  • Bienestable: control de sistemas secuenciales.
  • Memoria: almacenamiento digital de datos.
  • Microcontrolador: control de sistemas digitales
  • Puerta logica: control de sistema combicionales.

Dispositivos de potencia

  • DIAC: control de potencia.
  • Fusible: protección contra sobre-intensidades.
  • Tiristor: control de potencia.
  • Transformador: elevar o disminuir tensiones, intensidades, impedancia aparente.
  • Triac: control de potencia.
  • Varistor: protección contra sobre-tensiones.
INTRODUCCION A LA ELECTRONICA

El comienzo de la electrónica viene desde 1895 cuando H.A.Lorentz postuló la existencia de cargas separadas, llamadas electrones. Dos años más tardes J.J Thompson encontró estos electrones experimentalmente. En el mismo año (1897). Braun construyó lo que fue probablemente la primera válvula electrónica, esencialmente un tubo de rayos catódicos primitivo.

Esto no fue hasta los principios del siglo 20 que la electrónica comenzó a tomar forma tecnológica. En 1904 Flemming inventó el diodo, el cual llamó una válvula. Esto consistía en un alambre calentado el cual emitía electrones separados a una pequeña distancia desde una placa en vasío. Para un voltaje positivo aplicado a la placa, los electrones eran juntados, por el contrario para un potencial negativo la corriente fue reducida a cero. Esta válvula fue usada como un detector de señales inalámbricas. Dos años más tardes, Pickard trató un cristal de silicio con un bigote de gato(un alambre puntiagudo presionado dentro del silicio)
como un detector. Este fue el primer diodo semiconductor. Este componente era muy inconfiable, fue abandonado pronto y la electrónica de los semiconductores en 1906 murió prematuramente.
El acontecimiento más importante en esta antigua historia de la electrónica tuvo lugar en el mismo año(1906) cuando De Forest puso un tercer electrodo(una malla) dentro del invento de Flemming, inventando así la válvula electrónica triodo, el cual llamó audión. Un pequeño cambio en el voltaje rejilla resultó un gran cambio en el voltaje placa. Por esto el, el audión fue el primer amplificador. Esto tomó alrededor de cinco años para perfeccionar el vacío en el audión y adicionar un cátodo revestido de óxido eficiente para obtener un dispositivo electrónico confiable. Comenzando así en 1911 la era de de la electrónica práctica.

La primera aplicación de la electrónica fue en la radio, y simultáneamente con el nacimiento de la electrónica, el IRE (Instituto de Ingenieros de la Radio) fue fundado en los Estados Unidos en 1912. Esto fue un gran tributo a la imaginación de los primeros ingenieros, que comprendieron inmediatamente la importancia de la radio y formaron esta organización en el mismo comienzo de las comunicaciones radiales. El Instituto Americano de Ingenieros Eléctricos, la cual tomó cuidado del interés ingenieros eléctricos convencionales, había sido ya fundada en 1884. Ambas sociedades se combinaron en 1963 para sentar el IEEE (Instituto de Ingenieros Eléctricos y Electrónicos).
La primera estacionó de radiodifusión, KDKA, fue construida en 1920 por la Corporación Eléctrica Westinghouse en Pittsburgh, Pennsylvania. Alrededor de 1924, justamente cuatro cortos años después, habían 500 estaciones de radio en los Estados Unidos. La historia de la radiodifusión(Ambas las comunicaciones de Radio y TV) pueden ser divididas en tres periodos fundamentales:

De 1907 a 1927: Los componentes disponibles eran simplemente diodos y triodos con cátodos tipo-filamento. Los circuitos que fueron inventados por la ingeniosidad de los ingenieros fueron los amplificadores en cascada, amplificadores regenerativos (Universidad de Armstrong en 1912), osciladores, heterodino(Universidad de Armtrong 1917) y neutralización para prever oscilaciones indecisas en amplificadores.

De 1927 a 1936: El cátodo indirectamente calentado fue inventado por el diodo y el triodo. Dos electrodos adicionales - un cuarto y luego un quinto - fueron introducidos en el triodo para formar la válvula de rejilla-protectora y el pentodo, respectivamente. Además las válvulas amplificadoras de radiación y las válvulas de metal fueron introducidas durante este periodo.Con estos nuevos dispositivos, los ingenieros fueron capaces de inventar el recibidor super heterodino, control automático de ganancia (AGC), aislador-simple de sincronización, y la operación multibanda. La radio fue un negocio floreciente.

De 1936 a 1960: En este ultimo periodo los nuevos dispositivos eran electrodos estrechamente espaciados (para un alto producto ganancia-ancho de banda), tubos miniaturas de cristal, y, hacia el fin del periodo, tubos de televisión a color. La reconocida Universidad de Armstrong años después el primer receptor FM estaba disponible. La Electrónica de la televisión blanco y negro comienza alrededor de 1930, y el nombre más importante aquí es Zworyking de RCA. Dies años más tarde, la televisión al menos en los Estados Unidos, era un uso claro.

La televisión a color comercial comenzó alrededor de 1950, y muchas nuevas funciones tenían que ser efectuadas. Por esto, los circuitos de a continuación fueron inventados: limitador de FM, discriminador de FM, control de frecuencia automática (AFC), generador de ondas de forma de diente-cierra(definición linear para un tubo de TV), sincronización, multiplicador, y los circuitos de retroalimentación inversa (incluyendo amplificadores operacionales).

miércoles, 22 de octubre de 2008

Historia del cálculo

Las principales ideas que apuntalan el cálculo se desarrollaron durante un periodo de tiempo muy largo sin duda. Los primeros pasos fueron dados por los matemáticos griegos. Para los antiguos griegos, los números eran cocientes de enteros así que la recta numérica tenía 'hoyos' en ella. Le dieron la vuelta a esta dificultad usando longitudes, áreas y volúmenes además de números ya que, para los griegos, no todas las longitudes eran números.

Zenón de Elea, alrededor de 450 a. C., planteó una serie de problemas que estaban basados en el infinito. Por ejemplo, argumentó que el movimiento es imposible:
Si un cuerpo se mueve de A a B entonces, antes de llegar a B pasa por el punto medio, B1, de AB. Ahora bien, para llegar a B1 debe primero pasar por el punto medio B2 de AB1. Continuando con este argumento se puede ver que A debe moverse a través de un número infinito de distancias y por lo tanto no puede moverse.
Leucippo, Demócrito y Antifon hicieron contribuciones al método exhaustivo griego al que Eudoxo dio una base científica alrededor de 370 a. C. El método se llama exhaustivo ya que considera las áreas medidas como expandiéndolas de tal manera que cubran más y más del área requerida.

Diagrama de Arquímedes
Diagrama de Arquímedes

Sin embargo, Arquímedes, alrededor de 225 a. C. hizo uno de las contribuciones griegas más significativas. Su primer avance importante fue demostrar que el área de un segmento de parábola es 4/3 del área del triángulo con los mismos base y vértice y es igual a 2/3 del área del paralelogramo circunscrito. Arquímedes construyó una secuencia infinita de triángulos empezando con uno de área A y añadiendo continuamente más triángulos entre los existentes y la parábola para obtener áreas
A, A + A/4, A + A/4 + A/16, A + A/4 + A/16 + A/64, ...
El área del segmento de la parábola es, por lo tanto:
A(1 + 1/4 + 1/4² + 1/4³ + ...) = (4/3)A.
Este es el primer ejemplo conocido de suma de una serie infinita. Arquímedes usó el método exhaustivo para encontrar la aproximación al área de un círculo. Esto, por supuesto, es un ejemplo temprano de integración que llevó a valores aproximados de π.

Entre otras 'integraciones' de Arquímedes estaban el volumen y la superficie de una esfera, el volumen y área de un cono, el área de una elipse, el volumen de cualquier segmento de un paraboloide de revolución y un segmente de un hiperboloide de revolución.

No hubo más progresos hasta el siglo XVI cuando la mecánica empezó a llevar a los matemáticos a examinar problemas como el de los centros de gravedad. Luca Valerio (1552-1618) publicó De quadratura parabolae en Roma (1606) que continuaba los métodos griegos para atacar este tipo de problemas de calcular áreas. Kepler, en su trabajo sobre movimientos planetarios, tenía que encontrar el área de sectores de una elipse. Su método consistía en pensar en las áreas como sumas de líneas, otra forma rudimentaria de integración, pero Kepler tenía poco tiempo para el rigor griego y más bien tuvo suerte de obtener la respuesta correcta ya que cometió dos errores que se cancelaron uno al otro en su trabajo.

Tres matemáticos, nacidos en un periodo de tres años, fueron los siguientes en hacer contribuciones importantes. Eran Fermat, Roberval y Cavalieri. Este último llegó a su 'método de los indivisibles' por los intentos de integración de Kepler. No fue riguroso en su acercamiento y es difícil ver con claridad cómo se le ocurrió su método. Al parecer Cavalieri pensó en un área como formada por componentes que eran líneas y luego sumó su número infinito de 'indivisibles'. Demostró, usando estos métodos, que la integral de xn entre 0 y a era an+1/(n+1) mostrando el resultado para ciertos valores de n e infiriendo el resultado general.

Roberval consideró problemas del mismo tipo pero fue mucho más riguroso que Cavalieri. Roberval se fijó en el área entre una curva y una línea como formada por un número infinito de rectángulos infinitamente delgados. Aplicó esto a la integral de xm entre 0 y 1 y demostró que tenía un valor aproximado de
(0m + 1m + 2m +...+ (n-1) m)/nm+1.
Roberval entonces afirmó que esto tendía a 1/(m+1) cuando n tiende a infinito, calculando así el área.

Fermat también fue más riguroso en su acercamiento pero no dio demostraciones. Generalizó la parábola y la hipérbola:
Parábola: y/a = (x/b)² generalizada como (x/a)n = (y/b)m.
Hipérbola: y/a = (b/x)² generalizada como (y/a)n = (b/x)m.
Al estar examinando y/a = (x/b)p, Fermat calculó la suma de rp para r entre 1 y n. Fermat también investigó máximos y mínimos considerando dónde la tangente a la curva es paralela al eje X. Le escribió a Descartes dando el método esencialmente como se usa hoy, es decir, encontrando los máximos y los mínimos calculando dónde la derivada de la función es 0. De hecho, debido a este trabajo Lagrange afirmó claramente que él consideraba a Fermat como el inventor del cálculo.

Descartes produjo un importante método para deteminar normales en La Géometrie en 1637 basado en la doble intersección. De Beaune extendió sus métodos y los aplicó a las tangentes; en este caso la doble intesección se traduce en raíces dobles. Hudde descubrió un método más sencillo, llamado la Regla de Hudde, que básicamente involucra a la derivada. El método de Descartes y la Regla de Hudde tuvieron una influencia importante sobre Newton.

Huygens criticó las pruebas de Cavalieri diciendo que lo que se necesita es una demostración que al menos convenza de que puede construirse una prueba rigurosa. Huygens tuvo gran influencia sobre Leibniz y por lo tanto jugó un papel importante en la producción de un acercamiento más satisfactorio al cálculo.

Triángulo de Barrow
Triángulo de Barrow

El siguiente paso importante lo dieron Torricelli y Barrow. El segundo dio un método de tangentes a una curva en el que la tangente está dada como el límite de una cuerda cuando los puntos se acercan uno a otro y que es conocido como el triángulo diferencial de Barrow.

Tanto Torricelli como Barrow estudiaron el problema del movimiento con velocidad variable. La derivada de la distancia es la velocidad y la operación inversa nos lleva de la velocidad a la distancia. De aquí empezó a evolucionar naturalmente una concienciación de la inversa de la diferenciación y que Barrow estuviera familiarizado con la idea de que integral y derivada son inversas una de otra. De hecho, aunque Barrow nunca afirmó explícitamente el teorema fundamental del cálculo, estaba trabajando hacia el resultado y Newton continuaría en esta dirección y daría explícitamente el Teorema Fundamental del Cálculo.

El trabajo de Torricelli fue continuado en Italia por Mengoli y Angeli.

Newton escribió un tratado sobre fluxiones en octubre de 1666. Esta obra no sería publicada en ese momento pero fue revisada por muchos matemáticos y tuvo gran influencia sobre la dirección que tomaría el cálculo. Newton pensó en una partícula que dibuja una curva con dos líneas que se mueven que eran las coordenadas. La velocidad horizontal x' y la velocidad vertical y' eran las fluxiones de x y y asociadas con el flujo del tiempo. Los fluentes o cantidades flotantes eran x y y mismas. Con esta notación de fluxión, y' / x' era la tangente a ƒ( x,y) = 0.

En su tratado de 1666, Newton discute el problema inverso: encontrar y dada la relación entre x y y'/x'. Por lo tanto la pendiente de la tangente estaba dada para cada x y cuando y'/x' = ƒ(x) entonces Newton resuelve el problema mediante la antidiferenciación. También calculó áreas mediante este método y su obra contiene el primer enunciado claro del Teorema Fundamental del Cálculo.

Newton tuvo problemas para publicar su obra matemática. Barrow tuvo algo de culpa ya que el editor de la obra de Barrow había quebrado y después de esto ¡otros tenían temor de publicar obras matemáticas! La obra de Newton sobre Análisis con series infinitas fue escrita en 1669 y circuló como manuscrito. No fue publicada sino hasta 1711. Se modo similar, su Método de fluxiones y series infinitas fue escrito en 1671 y publicado en inglés en 1736. El original en latín fue publicado mucho después.
En estas dos obras, Newton calculó la expansión en serie de sen x y cos x y la expansión de lo que en realidad es la función exponencial pero ésta función no quedaría establecida como tal hasta que Euler introdujo la notación actual ex.

Aquí se pueden ver la Newton fue el Tractatus de Quadrarura Curvarum que escribió en 1693 pero no fue publicado hasta 1704 cuando la publicó como un apéndice de su Optiks. Su trabajo contiene otro acercamiento que involucra el cálculo de límites. Newton dice:
En el tiempo en que x al fluir se convierte en x + o, la cantidad xn se convierte en (x + o)n, es decir, por el método de series infinitas,
xn + noxn-1 + (nn - n)/2 ooxn-2 + ...
Al final deja que el incremento o desaparezca 'tomando límites'.

Leibniz aprendió mucho en un viaje por Europa en el que conoció a Huygens en París en 1672. También conoció a Hooke y a Boyle en Londres en 1673 donde compró varios libros de matemáticas, incluyendo las obras de Barrow. Leibniz sostendría una larga correspondencia con Barrow. Al volver a París, Leibniz realizó un trabajo buenísimo sobre el cálculo, pensando en los fundamentos de manera muy distinta a Newton.

Newton consideraba que las variables cambiaban con el tiempo. Leibniz pensaba que las variables x, y variaban sobre secuencias de valores infinitamente cercanos. Introdujo a dx y dy como las diferencias entre valores consecutivos de esas secuencias. Leibniz sabía que dx/dy da la tangente pero no la usó como una propiedad que defina.
Para Newton, la integración consistía en encontrar flujos para una fluxión dada así que se implica el hecho de que la integración y la diferenciación son inversas. Leibniz usaba la integral como una suma, de forma muy similar a la de Cavalieri. También estaba contento con el uso de las 'infinitesimales' dx y dy mientras que Newton usaba x' y y' que eran velocidades finitas. Por supuesto que ni Leibniz ni Newton pensaban en términos de funciones, pero ambos pensaban siempre en términos de gráficas. Para Newton, el cálculo era geométrico mientras que Leibniz lo llevó hacia el análisis.
Leibniz estaba bien consciente de que encontrar una buena notación era sumamente importante y pensó en ella mucho tiempo. Newton, por otro lado, escribió más bien para él mismo y, como consecuencia, tendía a usar cualquier notación que se lo ocurriera ese día. La notación d y ∫ de Leibniz destacaban el aspecto de operadores que probaría ser importante más adelante. Para 1675, Leibniz se había quedado con la notación
y dy = y²/2

particulas subatomicas

LAS PARTÍCULAS SUBATÓMICAS

A principios del siglo XX, se realizó el descubrimiento de unas partículas subatómicas.

  • Electrón: Se encuentra en la corteza; su masa aproximadamente es de 9,1 . 10-31 kg, casi nula. Tienen carga negativa.
  • Protón: Tiene carga positiva igual en magnitud a la carga negativa del electrón. Se encuentran en el núcleo y su masa es de 1,6 . 10-27 kg, aproximadamente 1836 veces la del electrón. particulasEl número atómico de un elemento indica el número de protones que tiene en el núcleo. Por ejemplo el núcleo del átomo de hidrógeno contiene un único protón.

  • Neutrón:Su masa es igual que la del protón, y a los dos se les puede denominar nucleones. No poseen carga. Y se encuentran en el núcleo.

Estas experiencias hicieron que uno de los postulados de la teoría de Dalton se modificara.

El átomo, aunque muy estable, dejaba de ser indivisibble y homogéneo.


particulas elementales

Las interacciones fundamentales

La física de las partículas elementales tiene como interés no sólo la enumeración y clasificación de las componentes fundamentales de la materia sino también la descripción de sus interacciones.

Conocemos cuatro interacciones (o fuerzas) fundamentales:la electromagnética, la fuerte (o nuclear), la débil y la gravitatoria. Las tres primeras son las relevantes al nivel de las partículas elementales, ya que la intensidad de la interacción gravitatoria entre partículas subatómicas es completamente despreciable respecto de las otras debido al valor de las masas en juego. Por ejemplo, la fuerza gravitatoria entre un protón y un electrón es 1039 veces más pequeña que la electromagnética.

Las cuatro interacciones fundamentales

No es sorprendente entonces que haya sido posible lograr la descripción de las interacciones electromagnética, débil y fuerte en un marco conceptual común, conocido como el Modelo Estándar de las interacciones fundamentales aun cuando la interacción gravitatoria no pueda ser incorporada dentro del mismo formalismo.

La interacción electromagnética es la más conocida y por supuesto afecta a todas las partículas que poseen carga eléctrica. La interacción fuerte sólo la sienten los hadrones; a nivel del núcleo es también conocida como fuerza nuclear y es la responsable de la unión entre protones y neutrones dentro del núcleo atómico. Para distancias nucleares (aproximadamente un Fermi) su intensidad es mucho mayor que la electromagnética, pero se vuelve despreciable para separaciones atómicas (del orden del Ángstrom). A nivel de las partículas elementales la interacción fuerte sólo actúa sobre los quarks (no sobre los leptones). La interacción débil es la de menor intensidad de las tres, y es responsable de ciertos decaimientos nucleares, como el decaimiento beta del neutrón. Todas las partículas elementales conocidas participan de esta interacción. En particular, ya que los neutrinos no tienen carga eléctrica ni son hadrones solo interactúan débilmente, siendo por ello muy difícil detectarlos.

lunes, 20 de octubre de 2008

telecomunicaciones

TELECOMUNICACION
Heinrich Rudolf Hertz alrededor de 1849.

Heinrich Rudolf Hertz alrededor de 1849.

La TELECOMUNICACION (del prefijo griego tele, "distancia" o "lejos", "comunicación a distancia") es

una técnica consistente en transmitir un mensaje desde un punto a otro, normalmente con el atributo típico adicional de ser bidireccional. El término telecomunicación cubre todas las formas de comunicación a distancia, incluyendo radio, telegrafía, televisión, telefonía, transmisión de datos e interconexión de ordenadores a nivel de enlace. El Día Mundial de la Telecomunicación se celebra el 17 de mayo.

La base matemática sobre la que se desarrollan las telecomunicaciones fue desarrollada por el físico inglés James Clerk Maxwell. Maxwell, en el prefacio de su obra Treatise on Electricity and Magnetism (1873), declaró que su principal tarea consistía en justificar matemáticamente conceptos físicos descritos hasta ese momento de forma únicamente cualitativa, como las leyes de la inducción electromagnética y de los campos de fuerza, enunciadas por Michael Faraday. Con este objeto, introdujo el concepto de onda electromagnética, que permite una descripción matemática adecuada de la interacción entre electricidad y magnetismo mediante sus célebres ecuaciones que describen y cuantifican los campos de fuerzas. Maxwell predijo que era posible propagar ondas por el espacio libre utilizando descargas eléctricas, hecho que corroboró Heinrich Hertz en 1887, ocho años después de la muerte de Maxwell, y que, posteriormente, supuso el inicio de la era de la comunicación rápida a distancia. Hertz desarrolló el primer transmisor de radio generando radiofrecuencias entre 31 MHz y 1.25 GHz

Contenido


Historia

Las telecomunicaciones, comienzan en la primera mitad del siglo XIX con el telégrafo eléctrico, que permitió el enviar mensajes cuyo contenido eran letras y números. A esta invención se le hicieron dos notables mejorías: la adición, por parte de Charles Wheatstone, de una cinta perforada para poder recibir mensajes sin que un operador estuviera presente, y la capacidad de enviar varios mensajes por la misma línea, que luego se llamó telégrafo múltiple, añadida por Emile Baudot.

Más tarde se desarrolló el teléfono, con el que fue posible comunicarse utilizando la voz, y posteriormente, la revolución de la comunicación inalámbrica: las ondas de radio.

A principios del siglo XX aparece el teletipo que, utilizando el código Baudot, permitía enviar texto en algo parecido a una máquina de escribir y también recibir texto, que era impreso por tipos movidos por relés.

El término telecomunicación fue definido por primera vez en la reunión conjunta de la XIII Conferencia de la UTI (Unión Telegráfica Internacional) y la III de la URI (Unión Radiotelegráfica Internacional) que se inició en Madrid el día 3 de septiembre de 1932. La definición entonces aprobada del término fue: "Telecomunicación es toda transmisión, emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos".

El siguiente artefacto revolucionario en las telecomunicaciones fue el módem que hizo posible la transmisión de datos entre computadoras y otros dispositivos. En los años 1960 comienza a ser utilizada la telecomunicación en el campo de la informática con el uso de satélites de comunicación y las redes de conmutación de paquetes.

La década siguiente se caracterizó por la aparición de las redes de computadoras y los protocolos y arquitecturas que servirían de base para las telecomunicaciones modernas (en estos años aparece la ARPANET, que dio origen a la Internet). También en estos años comienza el auge de la normalización de las redes de datos: el CCITT trabaja en la normalización de las redes de conmutación de circuitos y de conmutación de paquetes y la Organización Internacional para la Estandarización crea el modelo OSI. A finales de los años setenta aparecen las redes de área local o LAN.

En los años 1980, cuando los ordenadores personales se volvieron populares, aparecen las redes digitales. En la última década del siglo XX aparece Internet, que se expandió enormemente y a principios del siglo XXI se está viviendo los comienzos de la interconexión total a la que convergen las telecomunicaciones, a través de todo tipo de dispositivos que son cada vez más rápidos, más compactos, más poderosos y multifuncionales.

Consideraciones de diseño de un sistema de telecomunicación

Los elementos que integran un sistema de telecomunicación son una television, una línea o medio de transmisión y posiblemente, impuesto por el medio, un canal y finalmente un receptor. El transmisor es el dispositivo que transforma o codifica los mensajes en un fenómeno físico, la señal. El medio de transmisión, por su naturaleza física, es posible que modifique o degrade la señal en su trayecto desde el transmisor al receptor debido a ruido, interferencias o la propia distorsión del canal. Por ello el receptor ha de tener un mecanismo de decodificación capaz de recuperar el mensaje dentro de ciertos límites de degradación de la señal. En algunos casos, el receptor final es el oído o el ojo humano (o en algún caso extremo otros órganos sensoriales) y la recuperación del mensaje se hace por la mente.

La telecomunicación puede ser punto a punto, punto a multipunto o teledifusión, que es una forma particular de punto a multipunto que funciona solamente desde el transmisor a los receptores, siendo su versión más popular la radiodifusión.

La función de los ingenieros de telecomunicación es analizar las propiedades físicas de la línea o medio de comunicación y las propiedades estadísticas del mensaje a fin de diseñar los mecanismos de codificación y decodificación más apropiados. Cuando los sistemas están diseñados para comunicar a través de los órganos sensoriales humanos (principalmente vista y oído), se deben tener en cuenta las características psicológicas y fisiológicas de percepción humana. Esto tiene importantes implicaciones económicas y el ingeniero investigará que defectos pueden ser tolerados en la señal sin que afecten excesivamente a la visión o audición, basándose en conceptos como el límite de frecuencias detectables por los órganos sensoriales humanos.

Posibles imperfecciones en un canal de comunicación son: ruido impulsivo, ruido térmico, tiempo de propagación, función de transferencia de canal no lineal, caídas súbitas de la señal (microcortes), limitaciones en el ancho de banda y reflexiones de señal (eco). Muchos de los modernos sistemas de telecomunicación obtienen ventaja de algunas de estas imperfecciones para, finalmente, mejorar la calidad de transmisión del canal.

Los modernos sistemas de comunicación hacen amplio uso de la sincronización temporal. Hasta la reciente aparición del uso de la telefonía sobre IP, la mayor parte de los sistemas de comunicación estaban sincronizados a relojes atómicos o a relojes secundarios sincronizados a la hora atómica internacional, obtenida en la mayoría de los casos vía GPS.

Ya no es necesario establecer enlaces físicos entre dos puntos para transmitir la información de un punto a otro. Los hechos ocurridos en un sitio, ocurren a la misma vez en todo el mundo. Nos adentramos en una nueva clase de sociedad en la que la información es la que manda. El conocimiento es poder, y saber algo es todo aquello que se necesita. En Europa la sociedad de la información se creó como respuesta de la Comunidad Europea al crecimiento de las redes de alta velocidad de los Estados Unidos y su superioridad tecnológica



Otros aspectos de interés

El científico de los laboratorios Bell Claude E. Shannon publicó en 1948 un estudio titulado Una teoría matemática de la comunicación. Esta publicación fue un hito para la realización de los modelos matemáticos usados para describir sistemas de comunicación, dentro de la denominada teoría de la información. La teoría de la información nos permite evaluar la capacidad de un canal de comunicación de acuerdo con su an


cho de banda y su relación señal-ruido.

En la fecha de la publicación de Shannon, los sistemas de telecomunicación estaban basados, predominantemen


te, en circuitos electrónicos analógicos. La introducción masiva de circuitos integrados digitales ha permitido a los ingenieros de telecomunicación aprovechar completamente las ventajas de la teoría de la información, emergiendo, a partir de la demanda de los fabricantes de equipos de telecomunicación, un área especializada en el diseño de circuitos integrados llamada procesamiento de señales digitales.

Compañias de telecomunicaciones

Compañías fabricantes de equipos de telecomunicaciones (Tanto en televisión, teléfono e internet):

Véase también


Enlaces externos

historia de java

HISTORIA DE JAVA

Los lenguajes de programación C y Fortran se han utilizado para diseñar algunos de los sistemas más complejos en lenguajes de programación estructurada, creciendo hasta formar complicados procedimientos. De ahí provienen términos como "código de espagueti" o "canguros" referentes a programas con múltiples saltos y un control de flujo difícilmente trazable.

No sólo se necesitaba un lenguaje de programación para tratar esta complejidad, sino un nuevo estilo de programación. Este cambio de paradigma de la programación estructurada a la programación orientada a objetos, comenzó hace 30 años con un lenguaje llamado Simula67.

B. COMIENZOS

Java fue diseñado en 1990 por James Gosling, de Sun Microsystems, como software para dispositivos electrónicos de consumo. Curiosamente, todo este lenguaje fue diseñado antes de que diese comienzo la era World Wide Web, puesto que fue diseñado para dispositivos electrónicos como calculadoras, microondas y la televisión interactiva.

C. PRIMEROS PROYECTOS EN QUE SE APLICO EL JAVA

El proyecto Green fue el primero en el que se aplicó Java, y consistía en un sistema de control completo de los aparatos electrónicos y el entorno de un hogar. Con este fin se construyó un ordenador experimental denominado *7 (Star Seven). El sistema presentaba una interfaz basada en la representación de la casa de forma animada y el control se llevaba a cabo mediante una pantalla sensible al tacto. En el sistema aparecía ya Duke, la actual mascota de Java.

miércoles, 8 de octubre de 2008

historia del blogger

Blogger (servicio)

De Wikipedia, la enciclopedia libre

Para la persona que mantiene un blog, véase blogger (usuario).

Blogger, una palabra creada por Pyra Labs (su creador), es un servicio para crear y publicar un blog de manera fácil. El usuario no tiene que escribir ningún código o instalar programas de servidor o de scripting. Blogger acepta para el hosting de los blogs su propio servidor (Blogspot) o el servidor que el usuario especifique (FTP o SFTP)

Historia de Blogger [editar]

Lanzado en Agosto de 1999, es una de los primeras herramientas de publicación de blogs y es acreditado por haber ayudado a popularizar el uso de formularios. Más específicamente, en vez de escribir a mano el HTML y frecuentemente subir las nuevas publicaciones, el usuario puede publicar a su weblog llenando un formulario en el sitio web de Blogger. Esto puede ser realizado por cualquier navegador y los resultados son inmediatos.

En el 2003, Pyra Labs fue adquirido por la empresa Google; por ende, también Blogger. Google consiguió los recursos que Pyra requería. Más adelante, las "características premium", que eran pagadas, fueron habilitadas para el público en general gracias a la ayuda de Google.

En el 2004, Google compró Picasa y su utilidad de intercambio de fotografías Hello. Esto permitió a los usuarios de Blogger poner fotografías en sus blogs. Así el photoblogging (o la posibilidad de colgar fotos en los blogs) se hacía realidad en Blogger con la integración de Hello.

El 9 de mayo de 2004, Blogger fue relanzado, añadiendo nuevas plantillas de diseño basadas en CSS, archivaje individual de publicaciones, comentarios y publicación por e-mail. Después Google lanzaría una herramienta llamada BlogThis! en la barra de búsqueda Google. La herramienta BlogThis! permite abrir una nueva ventana con un formulario de publicación que permite al usuario publicar sin necesidad de visitar la página principal de Blogger e ingresar un usuario.

A finales de 2006, con el nuevo Blogger Beta, se hizo posible lo que tanta falta hacía en Blogger: el poder publicar post por categorías o etiquetas, (labels) como son llamados en Blogger, así como la posibilidad de poner blogs de acceso restringido o privados para solo unos cuantos, entre otras funciones.

Inicialmente el servicio de Blogger Beta no permitía hacer los cambios a la plantilla modificando el código HTML. Actualmente esto ha quedado cubierto, y se están migrando las cuentas anteriores de Blogger al nuevo Blogger Beta sin que signifique ninguna molestia a sus usuarios.

La actualización al nuevo Blogger requiere el registro de una cuenta de Google e incluye, entre otras mejoras, el servicio de etiquetado de posts y una mejora en la interfaz de edición y publicación de artículos. La nueva versión no modifica en absoluto la apariencia de los blogs creados en la versión antigua, salvo algunos pequeños problemas con acentos y caracteres especiales como la letra 'ñ'. Una vez actualizado un blog, puede decidirse dar un paso más y actualizar la plantilla, con lo que se perderían las modificaciones realizadas al HTML. Por ello se recomienda hacer copia de seguridad de la plantilla (y todos los snippets que se hayan ido incluyendo) antes de asimilar el nuevo conjunto de plantillas.