lunes, 14 de junio de 2010

PRACTICA FINAL QUIMICA




















TIPOS DE REACCION
Clasificación de las reacciones químicas
Los cambios químicos se producen de manera continua en la naturaleza: en los seres...

- Reacción de combustión
El principal protagonista de la combustión es el oxígeno. La vida no sería posible sin él; y la combustión, tampoco. Pero para que se produzca una reacción de combustión hace falta también...
- Ácidos y bases
¿Qué tienen en común el vinagre, el zumo de naranja o el zumo de limón? Entre otras cosas, su sabor ácido. En química, decimos que estas sustancias son ácidos. Otras sustancias, con...

- Reacción de neutralización
La reacción entre un ácido y una base es una reacción de neutralización. En una reacción de neutralización, el ácido y la base son los reactivos, y la sal y el agua, los productos:....

SEPARACION DE MEZCLAS
La cromatografía es un método físico de separación para la caracterización de mezclas complejas, la cual tiene aplicación en todas las ramas de la ciencia y la física. Es un conjunto de técnicas basadas en el principio de retención selectiva, cuyo objetivo es separar los distintos componentes de una mezcla, permitiendo identificar y determinar las cantidades de dichos componentes.
Las técnicas cromatográficas1 son muy variadas, pero en todas ellas hay una fase móvil que consiste en un fluido (gas, líquido o fluido supe crítico) que arrastra a la muestra a través de una fase estacionaria que se trata de un sólido o un líquido fijado en un sólido. Los componentes de la mezcla interaccionan en distinta forma con la fase estacionaria. De este modo, los componentes atraviesan la fase estacionaria a distintas velocidades y se van separando. Después de que los componentes hayan pasado por la fase estacionaria, separándose, pasan por un detector que genera una señal que puede depender de la concentración y del tipo de compuesto.
Diferencias sutiles en el coeficiente de partición de los compuestos da como resultado una retención diferencial sobre la fase estacionaria y por tanto una
separación efectiva en función de los tiempos de retención de cada componente de la
mezcla.


Obtención de alcohol solido Objetivo. • Preparar un gel que se puede utilizar como combustible. • Comprobar experimentalmente la combustibilidad de los compuestos orgánicos. Introducción. Un coloide, suspensión coloidal o dispersión coloidal es un sistema físico compuesto por dos fases: una continua, normalmente fluida, y otra dispersa en forma de partículas, por lo general sólidas, de tamaño mesoscópico (es decir, a medio camino entre los mundos macroscópico y microscópico). Así, se trata de partículas que no son apreciables a simple vista, pero mucho más grandes que cualquier molécula. Un gel es un coloide donde la fase continua es sólida y la discontinua es líquida. La propiedad que tienen las sustancias que pueden pasar de un estado coloidal a otro, se denomina ticsotropismo. Y el proceso en el cual se forma un gel se denomina gelación. Medidas de seguridad. • Utiliza tu bata Materiales. 2 vasos de precipitado de 150 ml. 1 agitador de vidrio. 2 probetas de 25 ml. 1 cápsula de porcelana. 1 espátula de acero inoxidable. Reactivos. 6 a 7 ml de alcohol etílico absoluto. (etanol) 1 gr de acetato de calcio. 3 ml de agua destilada

Procedimiento 1. En un vaso de precipitados se prepara una disolución saturada de acetato de calcio, disolviendo 1 g de esta sustancia en 3 ml de agua. 2. Se agregan 6 ó 7 ml de alcohol etílico a la solución anterior y se agita la mezcla hasta que se forme un gel. A este gel se le conoce como alcohol sólido. 3. Utilizando una espátula, se separa un poco de gel, se coloca en una cápsula de porcelana y se enciende.

La cromatografía puede cumplir dos funciones básicas que no se excluyen mutuamente:
• Separar los componentes de la mezcla, para obtenerlos más puros y que puedan ser usados posteriormente (etapa final de muchas síntesis).
• Medir la proporción de los componentes de la mezcla (finalidad analítica). En este caso, las cantidades de material empleadas son pequeñas.

REDUCCUION DEL COBRE
El cobre (del latín cŭprum, y éste del griego kýpros),9 cuyo símbolo es Cu, es el elemento químico de número atómico 29. Se trata de un metal de transición de color rojizo y brillo metálico que, junto con la plata y el oro, forma parte de la llamada familia del cobre, se caracterizada por ser uno de los mejores conductores de electricidad (el segundo luego de la plata). Gracias a su alta conductividad eléctrica, ductilidad y maleabilidad, se ha convertido en el material más utilizado para fabricar cables eléctricos y otros componentes eléctricos y electrónicos.
El cobre forma parte de una cantidad muy elevada de aleaciones que generalmente presentan mejores propiedades mecánicas, aunque tienen una conductividad eléctrica menor. Las más importantes son conocidas con el nombre de bronces y latones. Por otra parte, el cobre es un metal duradero porque se puede reciclar un número casi ilimitado de veces sin que pierda sus propiedades mecánicas.
Fue uno de los primeros metales en ser utilizado por el ser humano en la prehistoria. El cobre y su aleación con el estaño, el bronce, adquirieron tanta importancia que los historiadores han llamado Edad del Cobre y Edad del Bronce a dos periodos de la Antigüedad. Aunque su uso perdió importancia relativa con el desarrollo de la siderurgia, el cobre y sus aleaciones siguieron siendo empleados para hacer objetos tan diversos como monedas, campanas y cañones. A partir del siglo XIX, concretamente de la invención del generador eléctrico en 1831 por Faraday, el cobre se convirtió de nuevo en un metal estratégico, al ser la materia prima principal de cables e instalaciones eléctricas.
El cobre posee un importante papel biológico en el proceso de fotosíntesis de las plantas, aunque no forma parte de la composición de la clorofila. El cobre contribuye a la formación de glóbulos rojos y al mantenimiento de los vasos sanguíneos, nervios, sistema inmunitario y huesos y por tanto es un oligoelemento esencial para la vida humana.10
El cobre se encuentra en una gran cantidad de alimentos habituales de la dieta tales como ostras, mariscos, legumbres, vísceras y nueces entre otros, además del agua potable y por lo tanto es muy raro que se produzca una deficiencia de cobre en el organismo. El desequilibrio de cobre ocasiona en el organismo una enfermedad hepática conocida como enfermedad de Wilson.11
El cobre es el tercer metal más utilizado en el mundo, por detrás del hierro y el aluminio. La producción mundial de cobre refinado se estimó en 15,8 Mt en el 2006, con un déficit de 10,7% frente a la demanda mundial proyectada de 17,7 Mt.12








OBT. DE ALCOHOLSOLIDO

Obtención de alcohol solido Objetivo. • Preparar un gel que se puede utilizar como combustible. • Comprobar experimentalmente la combustibilidad de los compuestos orgánicos. Introducción. Un coloide, suspensión coloidal o dispersión coloidal es un sistema físico compuesto por dos fases: una continua, normalmente fluida, y otra dispersa en forma de partículas, por lo general sólidas, de tamaño mesoscópico (es decir, a medio camino entre los mundos macroscópico y microscópico). Así, se trata de partículas que no son apreciables a simple vista, pero mucho más grandes que cualquier molécula. Un gel es un coloide donde la fase continua es sólida y la discontinua es líquida. La propiedad que tienen las sustancias que pueden pasar de un estado coloidal a otro, se denomina ticsotropismo. Y el proceso en el cual se forma un gel se denomina gelación. Medidas de seguridad. • Utiliza tu bata Materiales. 2 vasos de precipitado de 150 ml. 1 agitador de vidrio. 2 probetas de 25 ml. 1 cápsula de porcelana. 1 espátula de acero inoxidable. Reactivos. 6 a 7 ml de alcohol etílico absoluto. (etanol) 1 gr de acetato de calcio. 3 ml de agua destilada

Procedimiento 1. En un vaso de precipitados se prepara una disolución saturada de acetato de calcio, disolviendo 1 g de esta sustancia en 3 ml de agua. 2. Se agregan 6 ó 7 ml de alcohol etílico a la solución anterior y se agita la mezcla hasta que se forme un gel. A este gel se le conoce como alcohol sólido. 3. Utilizando una espátula, se separa un poco de gel, se coloca en una cápsula de porcelana y se enciende.

OBT. DE UNA BASE
Una base lubricante pareja obtención de lubricantes para motores de combustión interna caracterizada por una mezcla de aceite vegetal (aceite de .Palma africana o sus fracciones) cuyo componente principal son los mono, di y triglicéridos del ácido oleico y cuyo porcentaje en el aceite final puede estar entre el 1 y el 98% en peso del aceite lubricante y un aceite vegetal (aceite de higuerilla o sus fracciones) trihidroxilado cuyo componente mayoritario son los mono di y triglicéridos del ácido oleico, y cuyo porcentaje en la formulación final del aceite lubricante puede estar entre 1 y el 98% en peso del aceite lubricante. 2.- La base lubricante de la reivindicación uno para motores de combustión interna de dos tiempos. 3.- La base lubricante de la reivindicación uno y dos caracterizada por que la mezcla de aceite vegetal es oleína de palma africana y aceite de higuerilla o sus fracciones. 4.- La base lubricante vegetal de la reivindicación tres caracterizada por que las mezclas del aceite son entre el 50 y el 98% del peso del lubricante de oleína y entre el 2 y el 50% de peso del lubricante de higuerilla. 5.- La base lubricante vegetal de la reivindicación tres caracterizada por que las mezclas del aceite son entre el 2 y el 50% del peso del lubricante de oleína y entre el 50 y el 98% de peso del lubricante de higuerilla. 6.- La base lubricante .Vegetal de las reivindicaciones anteriores donde las mezclas se agitan a una temperatura de entre 25 y 50°c con una duración promedio de una a tres horas, entre 80 y 200 revoluciones por minuto






PRACTICA # 1



Al agrejar acido sulfurico con hidroxido de amonio surgio una reaccion de una pequeña exploccion












PRACTICA#2




Al agrejar acido nitrico con el cobre surgio humo de color anaranjado y despues el cobre se desintegro y despues de unos minutos el producto se volvio azul







PRACTICA#3




Al agrejarle gliserina al permanganato de potasio despues de 5 minutos se escucho un sonido como de explocion y surgio lumbre









practica#4






al agrejar acetato con alcohol comenzo a ponerse cristalino y viscoso como a los tres segundos






PRACTICA#5



AL MEZCLAR LAS CENIZAS CON EL AGUA SE DISUELVE COMO A LOS TRES MINUTOS AL AGREJAR UNA GOTA DE FENOFTALEINA CAMBIA DE COLOR ROSA MEXICANO AL INSTANTE




SE AGREJO UNA GOTA DE ACIDO Y CAMBIA SU COLOR A BLANCO CREMOSO Y DESPUES A TRANSPARENTE







domingo, 6 de junio de 2010












HADWARE INTERNO

Corresponde a todas las partes físicas y tangibles de una computadora: sus componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente al soporte lógico e intangible que es llamado software. El término proviene del inglés y es definido por la RAE como el "Conjunto de los componentes que integran la parte material de una computadora". Sin embargo, el término, aunque es lo más común, no necesariamente se aplica a una computadora tal como se la conoce, así por ejemplo, un robot también posee hardware



HISTORIA DE LAS COMPUTADORAS


Las computadoras aparecen a finales de la década de 1950.
La computadora resulta ser un medio mecánico (electrónico, de hecho) para representar descripciones libre de ambigüedad y obtener un resultado útil.
Más aún, podría decirse que la computadora aparece cuando los niveles tecnológicos (electrónico fundamentalmente) alcanzan el grado de avance y refinamiento que ya tenían las ideas y conceptos matemáticos, lo cual sucede a mediados del siglo XX.
Uno de los problemas que siempre nos ha cautivado es el relacionado con la actividad de contar y con el concepto de número. De ahí que las primeras herramientas que se inventaron en esté ingenio mecánico capaz de liberarnos de la pesada tarea de calcular a mano.
El Abaco, es la primera calculadora mecánica, aunque no se puede llamar computadora porque carece de un elemento fundamental, el programa, que no se logrará hasta mucho tiempo después.



La máquina de calcular de Blaise Pascal (1623-1662). Se trata de engranes en una caja, que proporcionan resultados de operaciones de suma y resta en forma directa – mostrando un numero a través de una ventanita-



La máquina analítica de Charles Babbage, nació alrededor de 1830, esta podría considerarse la primer computadora. Este diseño, nunca llevado por completo a la práctica, contenía todos los elementos que configuran una computadora moderna y la diferencian de una calculadora.
A continuación se describen algunas características de la maquina inventada por Charles Babbage.

Almacén o Memoria

Entrada(Tarjetas perforadas)

Cálculos

Salida

Control


Cien años después de Babbage, en 1947 se diseño la primera computadora electrónica digital, que tenia gran parecido funcional con la maquina analítica de Babbage, aunque antes hubo algunos esfuerzos.
o En 1932 Vannevar Bush construyo en el Instituto Tecnológico de Massachussets (MIT) una calculadora electromecánica conocida como el analizador diferencial, pero era de propósito especifico y no tenia capacidad de programación.
o Igualmente en 1944 se construyo en la Universidad de Harvard la computadora MARK I, diseñada por un equipo encabezado por Howard H. Aiken. No obstante no era de propósito general y su funcionamiento estaba basado en relevadores.
Un equipo dirigido por los Doctores John Mauchly y John Ecker de la Universidad de Pennsylvania, termino en 1947 la ENIAC (Electronic Numerical Integrator And Compute) que puede ser considerada como l a primera computadora digital, electrónica de la historia.
Esta máquina era enorme media 10 x 16 metros, ocupaba el sótano de una Universidad, pesaba 30 tonelada, tenia 17,468 tubos de vació y 60000 relevadores, consumía 140 Kw y requería un sistema de aire acondicionado industrial. Pero era capaz de efectuar alrededor de 5000 sumas o 2800
Multiplicaciones en un segundo, calculo el valor de la constate pi. Como entre otras cosas iba a reemplazar a un grupo de matemáticas que hacia cómputos numéricos para una oficina especializada, recibió el nombre de “computadora”.
Multiplicaciones en un segundo, calculo el valor de la constate pi. Como entre otras cosas iba a reemplazar a un grupo de matemáticas que hacia cómputos numéricos para una oficina especializada, recibió el nombre de “computadora”.
El proyecto concluyo 2 años después cuando se integro al equipo John Von Neuman (1903-1957), quien es considerado el padre de las computadoras
El nuevo equipo diseño la EDVAC (Electronic Discretee Variable

Automatic Computer), tenía cerca de 40,000 bulbos y usaban un tipo de memoria basado en tubos de mercurio donde circulaban señales eléctricas sujetas a retardos.
La nueva idea fundamental resulta muy sencilla, pero de vital importancia: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada de manera “suave” y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como la ENIAC.

La nueva idea fundamental resulta muy sencilla, pero de vital importancia: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada de manera “suave” y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como la ENIAC.
Esta idea, que incluso obliga a una completa revisión de la arquitectura de las computadoras, recibe desde entonces el nombre del modelo de Von Neuman. Alrededor de este concepto gira toda la evolución posterior de la industria y la ciencia de la computación.
Comparación entre la ENIAC y un procesador ya obsoleto

ENIAC Intel 8080
Año 1947 1974
Componentes electrónicos Casi 18,000 bulbos Un circuito integrado con más de 6000 transistores
Tamaño 160 m. Menos de 1cm²
Requerimientos de Potencia 140 Kilowatts Pocos miliwatts
Frecuencia de Reloj 100 KHz 2 MHz
Costo Varios millones de 150 dlls

Esta clasificación se emplea poco ya, y además el criterio para determinar cuándo se dio el cambio de una generación a otra no está claramente
Cambios estructurales en su construcción.
Avances significativos en la forma de comunicación con las computadoras.
Su construcción estaba basada en circuitos de tubos de vacío o bulbos.
La comunicación se establecía por medio de programación en lenguaje máquina (binario).
El arranque de la computación se caracteriza por un gran desconocimiento de las capacidades y alcances de las computadoras. Por ejemplo, según un estudio de esa época, se suponía que iban a ser necesarias alrededor de 20 computadoras para saturar la capacidad del mercado de Estados Unidos en el campo del procesamiento de datos. Esta primera etapa abarcó la década de 1950 y se conoce como la primera generación de computadoras
Su construcción estaba basada en circuitos de tubos de vacío o bulbos.
La comunicación se establecía por medio de programación en lenguaje máquina (binario).

Estos aparatos son grandes y costosos (Decenas o cientos de miles de dólares).
En 1951 aparece la primera computadora comercial, es decir fabricada para ser vendida: La INIVAC I (Universal Computer). Esta máquina, que disponía de 1000 palabras de memoria central y podía leer cintas magnéticas, se utilizó para procesar los datos del censo de 1950 en Estados Unidos
Durante la primera generación ( y hasta parte de la tercera), las unidades de entrada estaban por completo dominadas por las tarjetas perforadas
A la UNIVAC I siguió una máquina desarrollada por IBM(Internacional Bussiness Machines), que apenas incursionaba en el campo; es la IBM 701.
Esta tenía un sistema de memoria secundaria llamado tambor magnético, antecesor de los discos empleados actualmente.
La competencia contestó con modelos UNIVAC 80 y 90, que pueden situarse ya en los inicios de la segunda generación.
Cerca de la década de 1960 las computadoras seguían en constante evolución, reduciendo su tamaño y aumentado sus capacidades de procesamiento
En esta etapa puede hablarse ya de la segunda generación de computadoras, que se caracteriza por los siguientes aspectos primordiales.
Estaban construidas por circuitos de transistores.
Se programaban con nuevos lenguajes llamados de “alto nivel”.
En general las computadoras de la segunda generación son de tamaño más reducido y menor costo que las anteriores. En la segunda generación hubo mucha competencia y muchas compañías nuevas, y se contaba con maquinas bastante avanzadas para su época, como la serie 5000 de Burroughs y la máquina ATLAS, de la Universidad de Manchester. Entre los primeros modelos que se pueden mencionar esta la Philco 212 y la UNIVAC M460.
IBM mejoro la 709 y produjo la 7090 (luego ampliada a la 7094), que gano el mercado durante la primera parte de la segunda generación. UNIVAC continuo con el modelo 1107, mientras NRC (National Cash Register) empezó a producir maquinas más pequeñas para proceso de datos comercial como la NCR 315.
RCA (Radio corporation of América) introdujo el modelo 501 y más tarde el RCA 601.
Esta generación no duro mucho, solo cinco años.
A mediados de la década de 1960, con la aparición de nuevas y mejores formas de comunicarse con la máquina, además de procesos adicionales en electrónica, surge la tercera generación de computadoras. Se inaugura con la presentación, en abril de 1964, de la serie 360 de IBM, como culminación de una enorme estrategia comercial y de mercadotecnia.
Las características de la tercera generación consisten en :
Su fabricación electrónica está basada en circuitos integrados: agrupamiento de circuitos de transistores grabados en milimétricas placas de silicio.
Su manejo es por medio de los lenguajes de control de los sistemas operativos.
Las computadoras de la serie IBM 360 (modelos 20, 22, 30, 40, 50, 65,75, 85, 90, 195) incluían técnicas especiales del manejo de procesador, unidades de cinta magnética para nueve canales, paquetes de discos magnéticos y otras características ahora usuales.
El sistema operativo de esta serie, llamado OS (Operative System Esta serie alcanzo un éxito enorme de tal forma que la gente en general, pronto llego a identificar el concepto de computadora con IBM. Sin embargo sus maquinas no fueron las únicas, ni necesariamente las mejores. También existían CDC serie 600 modelo 6600, que durante varios años fue considerada la más rápida.
A mediados de 1970, IBM produjo la serie 370 (modelos 115, 125, 135, 145, 158, 168) como mejora de la serie 360. UNIVAC compitió con los modelos 1108 y 1110, CDC inauguro se serie 7000 con el modelo 7600, reformando después para introducir el modelo Cyber.
Y así varias empresas continuaron compitiendo con nuevas aportaciones.
Minicomputadoras.
A mediados de la década de 1970, surgió un gran mercado para computadoras de tamaño mediano, o minicomputadoras, no tan costosas como las grandes máquinas y con una gran capacidad de proceso. En un principio, el mercado de estas maquinas fue dominado por la serie PDP-8 de DEC (Digital Equipamiento Corporation).
Las computadoras de la serie IBM 360 (modelos 20, 22, 30, 40, 50, 65,75, 85, 90, 195) incluyan técnicas especiales del manejo de procesador, unidades de cinta magnética para nueve canales, paquetes de discos magnéticos y otras características Haza usuales.
El sistema operativo de esta serie, llamado OS (Operative System), en varias configuraciones, incorporaba un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron es estándares.
Esta serie alcanzo un éxito enorme de tal forma que la gente en general, pronto llego a identificar el concepto de computadora con IBM. Sin embargo sus maquinas no fueron las únicas, ni necesariamente las mejores. También existían CDC serie 600 modelo 6600, que durante varios años fue considerada la más rápida.
A mediados de 1970, IBM produjo la serie 370 (modelos 115, 125, 135, 145, 158, 168) como mejora de la serie 360. UNIVAC compitió con los modelos 1108 y 1110, CDC inauguro se serie 7000 con el modelo 7600, reformando después para introducir el modelo Cyber.
Y así varias empresas continuaron compitiendo con nuevas aportaciones.
A mediados de la década de 1970, surgió un gran mercado para computadoras de tamaño mediano, o minicomputadoras, no tan costosas como las grandes máquinas y con una gran capacidad de proceso.
En la ahora ex Unión Soviética fueron de amplio uso las computadoras de la serie SU (sistema unificado Ryad), así mismo los países ahora ex socialistas desarrollaron una serie de computadoras dedicadas al control industrial, además de las máquinas de la serie Mink y BESM.
El adelanto de la microelectrónica prosiguió a una velocidad impresionante, y por el año de 1972, surgió en el mercado una nueva familia de circuitos integrados de alta densidad, que recibieron el nombre de microprocesadores.
Sin embargo desde el punto de vista estricto, hace poco ingresamos a la cuarta generación , porque en la que podía llamarse la segunda parte de la tercera generación solo hubo adelantos significativos en el punto A y no en el punto B. Con el uso masivo de internet ya también ya se puede hablar de un cambio sustancial en el punto B.
Por los que criterios son:
Microelectrónica de alta integración y distribución de tareas específicas mediante microprocesadores acoplados.
Acceso a la red desde una computadora personal, tanto en forma local como global.
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de introducir maquinas con innovaciones reales en los dos criterios mencionados, aunque a su término en 1993 los resultados fueron bastante pobres. La ACM Association for Computing Machering, que junto con la Computer Society de la IEEE (Institute of Electrical and Electronics Engineers), después de leer detallados artículos, concluye que esta es una generación perdida.
En Estados Unidos estuvo en actividad un programa de desarrollo que perseguía objetivos semejantes, que pueden resumirse de la siguiente forma:
Procesamiento en paralelo mediante arquitecturas y diseños especiales.
Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro de la computación es muy interesante, y se puede esperar que esta ciencia sigua siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto. Tal vez las dos tecnologías que definirán los inicios del siglo XXI serán la computación y la ingeniería genética, y esta última depende en buena medida de las tecnologías de cómputo para proceder

TARJETA MADRE



Una tarjeta madre es la central o primaria tarjeta de circuito de un sistema de computo u otro sistema electrónico complejo. Una computadora típica con el microprocesador, memoria principal, y otros componentes básicos de la tarjeta madre. Otros componentes de la computadora tal como almacenamiento externo, circuitos de control para video y sonido, y periféricos son unidos a la tarjeta madre vía conectores o cables de alguna clase.
La tarjeta madre es el componente principal de un computador personal. Es el componente que integra a todos los demás. Escoger la correcta puede ser difícil ya que existen miles.
Bueno. Ya que definimos el tipo de procesador según su precio rendimiento debemos buscar ciertas características de la tarjeta madre. Cada procesador tiene el tipo de tarjeta madre que le sirve (Aunque algunos comparten el mismo tipo) por lo que esto define más o menos la tarjeta madre que usaremos. Hoy en día las tarjetas madres traen incorporados los puertos seriales (Ratón, Scanner, etc. ), los paralelos (Impresora) y la entrada de teclado, así que por eso no debemos preocuparnos.
El bus(El que envia la información entre las partes del computador) de casi todos los computadores que vienen hoy en día es PCI, EISA y los nuevos estándares: AGP para tarjetas de video y el Universal Serial Bus USB (Bus serial universal) para conexión con componentes externos al PC. AGP, PCI y EISA son los tres tipos de ranuras compatibles con las tarjetas de hoy en día.
Un dato importante es que si se le va a colocar un Duro SCSI (Más rápido y caro que el IDE) se debe tener un puerto de este tipo, y el estándar es IDE. Las velocidades que se han obtenido hoy en día para algunos discos duros EIDE (IDE Mejorado) igualan a las obtenidas por el SCSI, por lo que no vale la pena complicarse ya que estos son más difíciles de configurar.
Otro dato importante sobre la tarjeta madre es la cantidad y tipo de ranuras que tiene para las tarjetas de expansión y para la memoria RAM. Es importante que traiga las ranuras estándar de expansión EISA, PCI y de pronto AGP, y mientras más mejor. Para la memoria RAM, es importante que traiga varias y que estas concuerden con el tipo de memoria que se vaya a comprar. Profundizaré sobre la memoria posteriormente.
Se debe tener en cuenta que la tarjeta madre traiga un BIOS (Configuración del sistema) que sea "Flash BIOS". Esto permite que sea actualizable por medio de un programa especial. Esto quiere decir que se puede actualizar la configuración de la tarjeta madre para aceptar nuevos tipos de procesador, partes, etc.


El Procesador
Este es el cerebro del computador. Dependiendo del tipo de procesador y su velocidad se obtendrá un mejor o peor rendimiento. Hoy en día existen varias marcas y tipos, de los cuales intentaré darles una idea de sus características principales.
Las familias (tipos) de procesadores compatibles con el PC de IBM usan procesadores x86. Esto quiere decir que hay procesadores 286, 386, 486, 586 y 686. Ahora, a Intel se le ocurrió que su procesador 586 no se llamaría así sino " Pentium", por razones de mercadeo
Existen, hoy en día tres marcas de procesadores: AMD, Cyrix e Intel. Intel tiene varios como son Pentium, Pentium MMX, Pentium Pro y Pentium II. AMD tiene el AMD586, K5 y el K6. Cyrix tiene el 586, el 686, el 686MX y el 686MXi. Los 586 ya están totalmente obsoletos y no se deben considerar siquiera. La velocidad de los procesadores se mide en Megahertz (MHz=Millones de ciclos por segundo). Así que un Pentium es de 166Mhz o de 200Mhz, etc.
Cabe anotar que los procesadores de Intel son más caros y tienen un unidad de punto flotante (FPU) más robusta que AMD y Cyrix. Esto hace que Intel tenga procesadores que funcionen mejor en 3D (Tercera dimensión), Auto CAD, juegos y todo tipo de programas que utilizan esta característica. Para programas de oficina como Word, WordPerfect, etc. AMD y Cyrix funcionan muy bien.
Pentium-75 ; 5x86-100 (Cyrix y AMD)
AMD 5x86-133
Pentium-90
AMD K5 P100
Pentium-100
Cyrix 686-100 (PR-120)
Pentium-120
Cyrix 686-120 (PR-133) ; AMD K5 P133
Pentium-133
Cyrix 686-133 (PR-150) ; AMD K5 P150
Pentium-150
Pentium-166
Cyrix 686-166 (PR-200)
Pentium-200
Cyrix 686MX (PR-200)
Pentium-166 MMX
Pentium-200 MMX
Cyrix 686MX (PR-233)
AMD K6-233
Pentium II-233
Cyrix 686MX (PR-266); AMD K6-266
Pentium II-266
Pentium II-300
Pentium II-333 (Deschutes)
Pentium II-350
Pentium II-400
etc.

Memoria Cache
La memoria cache forma parte de la tarjeta madre y del procesador (Hay dos tipos) y se utiliza para acceder rápidamente a la información que utiliza el procesador. Existen cache primario (L1) y cache secundario (L2). El cache primario esta definido por el procesador y no lo podemos quitar o poner. En cambio el cache secundario se puede añadir a la tarjeta madre. La regla de mano es que si se tienen 8 Megabytes (Mb) de memoria RAMse debe tener 128 Kilobytes (Kb) de cache. Si se tiene 16 Mb son 256 Kb y si se tiene 32 Mb son 512 Kb. Parece que en adelante no se observa mucha mejoría al ir aumentando el tamaño del cache. Los Pentium II tienen el cache secundario incluido en el procesador y este es normalmente de 512 Kb.
RAM (MB) Caché (Kb)
1 a 4 128 ó 256
4 a 12 256
12 a 32 512
más de 32 512 a 1024






MEMORIA RAM
Se denomina memoria a los circuitos que permiten almacenar y recuperar la información. En un sentido más amplio, puede referirse también a sistemas externos de almacenamiento, como las unidades de disco o de cinta. Memoria de acceso aleatorio o RAM (Random Access Memory) es la memoria basada en semiconductores que puede ser leída y escrita por el microprocesador u otros dispositivos de hardware. El acceso a las posiciones de almacenamiento se puede realizar en cualquier orden.
Los chips de memoria son pequeños rectángulos negros que suelen ir soldados en grupos a unas plaquitas con "pines" o contactos. La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o los discos duros, es que la RAM es muchísimo más rápida, y que se borra al apagar el ordenador, no como éstos.
El interior de cada chip se puede imaginar como una matriz o tabla en la cual cada celda es capaz de almacenar un bit. Por tanto, un bit se puede localizar directamente proporcionando una fila y una columna de la tabla. En realidad, la CPU identifica cada celda mediante un número, denominado dirección de memoria. A partir de una dirección se calcula cuál es la fila y columna correspondiente, con lo que ya se puede acceder a la celda deseada. El acceso se realiza en dos pasos: primero se comunica la fila y después la columna empleando los mismos terminales de conexión. Obviamente, esta técnica –denominada multiplexado– permite emplear menos terminales de conexión para acceder a la RAM, lo que optimiza la relación entre el tamaño del chip y la capacidad de almacenamiento.
Realmente, la CPU no suele trabajar con bits independientes, sino más bien con agrupaciones de los mismos, en forma de palabras binarias. Esto hace que la RAM no se presente en un solo chip, sino más bien en agrupaciones de los mismos. Por ejemplo, un grupo de 8 chips, cada uno capaz de almacenas x bits, proporcionará en conjunto x Kb.
Localización: Interna (se encuentra en la placa base)
Capacidad: Hoy en día no es raro encontrar ordenadores PC equipados con 64, 128 ó 256 Mb de memoria RAM.
Método de acceso: La RAM es una memoria de acceso aleatorio. Esto significa que una palabra o byte se puede encontrar de forma directa, sin tener en cuenta los bytes almacenados antes o después de dicha palabra (al contrario que las memorias en cinta, que requieren de un acceso secuencial). Además, la RAM permite el acceso para lectura y escritura de información.
Velocidad de acceso: Actualmente se pueden encontrar sistemas de memoria RAM capaces de realizar transferencias a frecuencias del orden de los Gbps (gigabits por segundo). También es importante anotar que la RAM es una memoria volátil, es decir, requiere de alimentación eléctrica para mantener la información. En otras palabras, la RAM pierde toda la información al desconectar el ordenador.
Hemos de tener muy en cuenta que esta memoria es la que mantiene los programas funcionando y abiertos, por lo que al ser Windows 95/98/Me/2000 un sistema operativo multitarea, estaremos a merced de la cantidad de memoria RAM que tengamos dispuesta en el ordenador. En la actualidad hemos de disponer de la mayor cantidad posible de ésta, ya que estamos supeditados al funcionamiento más rápido o más lento de nuestras aplicaciones
ROM
La memoria ROM, también conocida como firmware, es un circuito integrado programado con unos datos específicos cuando es fabricado. Los chips de características ROM no solo se usan en ordenadores, sino en muchos otros componentes electrónicos también. Hay varios tipos de ROM, por lo que lo mejor es empezar por partes.
Hay 5 tipos básicos de ROM, los cuales se pueden identificar como:
ROM
PROM
EPROM
EEPROM
Memoria Flash
Cada tipo tiene unas características especiales, aunque todas tienen algo en común:
Los datos que se almacenan en estos chips son no volátiles, lo cual significa que no se pierden cuando se apaga el equipo.
Los datos almacenados no pueden ser cambiados o en su defecto necesitan alguna operación especial para modificarse. Recordemos que la memoria RAM puede ser cambiada en al momento.
Todo esto significa que quitando la fuente de energía que alimenta el chip no supondrá que los datos se pierdan irremediablemente.
De un modo similar a la memoria RAM, los chips ROM contienen una hilera de filas y columnas, aunque la manera en que interactúan es bastante diferente. Mientras que RAM usualmente utiliza transistores para dar paso a un capacitador en cada intersección, ROM usa un diodo para conectar las líneas si el valor es igual a 1. Por el contrario, si el valor es 0, las líneas no se conectan en absoluto.


En muchos anuncios de ordenadores existen unas cifras que parecen sacadas de un código de espías, algo como: "256 Kb" o "512 burst-sram". Ante semejante galimatías, nuestro amigo informático de turno no duda en exclamar: "ah, sí, eso es la caché", en un tono rotundo que no deja lugar a más preguntas. Pero en nuestro fuero interno, seguimos preguntándonos ¿la ca-qué?








DISCO DURO





Un disco duro o disco rígido (en inglés hard disk drive) es un dispositivo no volátil, que conserva la información aun con la pérdida de energía, que emplea un sistema de grabación magnética digital. Dentro de la carcasa hay una serie de platos metálicos apilados girando a gran velocidad. Sobre los platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares para comunicar un disco duro con la computadora; las interfaces más comunes son Integrated Drive Electronics (IDE, también llamado ATA) , SCSI generalmente usado en servidores, SATA, este último estandarizado en el año 2004 y FC exclusivo para servidores.
Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes se deben definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema.
También existe otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya se puede encontrar en el mercado unidades mucho más económicas de baja capacidad (hasta 5121 GB) para el uso en computadoras personales (sobre todo portátiles). Así, el caché de pista es una memoria de estado sólido, tipo memoria RAM, dentro de un disco duro de estado sólido.
Su traducción del inglés es unidad de disco duro, pero este término es raramente utilizado, debido a la practicidad del término de menor extensión disco duro (o disco rígido).

Estructura física




Cabezal de lectura
Hay varios conceptos para referirse a zonas del disco:
• Plato: cada uno de los discos que hay dentro del disco duro.
• Cara: cada uno de los dos lados de un plato.
• Cabeza: número de cabezales.
• Pista: una circunferencia dentro de una cara; la pista 0 está en el borde exterior.
• Cilindro: conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara).

Tarjetas de sonido

En el mundo de los ordenadores compatibles el estándar en sonido lo ha marcado la empresa Creative Labs y su saga de tarjetas Sound Blaster.
• En el caso de que sólo nos interese que funcione con programas Windows 95, esta precaución no será importante, entonces sería más interesante saber que dispone de drivers de calidad, y de que Microsoft la soporte a nivel hardware en sus DirectX.
• Otro factor a tener en cuenta es si la tarjeta admite la modalidad "full duplex", es decir si admite "grabar" y "reproducir" a la vez, o lo que es lo mismo, si puede procesar una señal de entrada y otra de salida al mismo tiempo. Esto es importante si queremos trabajar con algún programa de videoconferencia tipo "Microsoft NetMeeting" el cual nos permite mantener una conversación con otras personas, pues la tarjeta se comporta como un teléfono, y nos deja oír la voz de la otra persona aunque en ese momento estemos hablando nosotros. Muchas de las tarjetas de Creative no poseen este soporte a nivel de hardware, pero si a nivel de software con los drivers que suministra la casa para algunos S.O.
• También es importante el soporte de "MIDI". Este es el estándar en la comunicación de instrumentos musicales electrónicos, y nos permitirá reproducir la "partitura" generada por cualquier sintetizador y a la vez que nuestra tarjeta sea capaz de "atacar" cualquier instrumento que disponga de dicha entrada.

Hay que tener claro que el formato MIDI realmente no "graba" el sonido generado por un instrumento, sino sólo información referente a que instrumento estamos "tocando", que "nota", y que características tiene de
Es una tarjeta de expansión que permite que la computadora manipule y envíe sonidos.

Las tarjetas de sonido permiten a la computadora:

• Enviar sonidos a las bocinas o a un estéreo conectado a la tarjeta.
• Grabar sonido desde un micrófono conectado a la computadora.
• Manipular sonido almacenado en el disco duro.
Características
• Procesador Gráfico
:
El encargado de hacer los cálculos y las figuras, debe tener potencia para que actúe más rápido y de mejor rendimiento.
• Disipador: Muy importante para no quemar el procesador, ya que es necesario un buen sistema de disipación del calor. Sin un buen disipador el procesador gráfico no aguantaría las altas temperaturas y perdería rendimiento incluso llegando a quemarse.
• Memoria de video: La memoria de video, es lo que almacena la información de lo que se visualiza en la pantalla. Depende de la resolución que queramos utilizar y de la cantidad de colores que deseemos presentar en pantalla, a mayor resolución y mayor número de colores más memoria es necesaria.














viernes, 4 de junio de 2010