domingo, 30 de septiembre de 2012

Importancia de la Tecnología de la Información en el área de Medicina



En la actualidad el aporte de la tecnología es fundamental en todas las áreas, pero imprescindible en lo que respecta a la medicina. Consideramos que debe existir una interrelación entre medicina y tecnología, ya que el manejo de los equipos médicos de alta complejidad son parte de los avances tecnológicos que se han venido efecuando a través del tiempo.

Los últimos 50 años se han caracterizado por un avance vertiginoso de la ciencia. Actualmente todas estas tecnologías avanzan a un paso tan rápido que para los que se dedican a utilizarlas les cuesta mantenerse al corriente de su aparición y utilidades, sin tener en cuenta la experiencia directa con ellas.

El desarrollo tecnologico ha propiciado un cambio asombroso en la medicina; su avance ha permitido conocer infinidad de procesos que explican el porqué de muchas enfermedades, de eventos que ocurren en el organismo humano y de las consecuencias de relacionarse con su entorno.

Esto ha generado una forma mas simple del razonamiento en la ejecucion del acto medico, surgiendo dos tendencias distintas de pensamiento: Una en la que se investiga, reflexiona y estudia permanentemente acerca de los procesos y otra en la que se aplica la tecnología sin la labor indagatoria por parte del médico.

IMPORTANCIA DE LA TECNOLOGIA DE INFORMACION EN LA MEDICINA

Las ciencias de la salud, y la medicina en particular, son uno de los campos del saber más evolucionados y beneficiados por el uso de las modernas tecnologías de la información, al tiempo que registran un crecimiento exponencial ta

nto en el número de usuarios, como en el de instituciones y ubicaciones que se han incorporado a la busqueda de diferentes medios que permitan un mejor nivel de vida. Ya desde la antigüedad las diversas investigaciones han sido parte importante en el proceso.

Aunque existen muchas definiciones sobre lo que significa tecnología, la que seguiremos es la propuesta por Banta, en la que tecnología medica se define como cualquier técnica o herramienta, producto o proceso, método o aparato que permita ampliar las capacidades humanas.

Siguiendo esta perspectiva, una forma común de clasificar a las tecnologías médicas es la siguiente:

Tecnologías de diagnóstico que permiten identificar y determinar los procesos patológicos por los que pasa un paciente;

Tecnologías preventivas, que protegen al individuo contra la enfermedad;

Tecnologías de terapia o rehabilitación, que liberan al paciente de su enfermedad o corrigen sus afectos sobre las funciones del paciente;

Tecnologías de administración y organización, que permiten conducir el otorgamiento correcto y oportuno de los servicios de salud.
El campo biomédico es uno de los ejemplos más ilustrativos de cómo el progreso científico que está teniendo lugar en nuestros días se materializa en avances de transcendencia social.

De hecho el progreso en las metodologías de estudio de los seres vivos y los avances en la manipulación genética han hecho posible la comprensión de numerosos problemas, así como el planteamiento de soluciones útiles para la salud humana.

Los expertos se han ocupado en sus últimas investigaciones de la incorporación de los avances tecnológicos en la práctica de la medicina, ante cuya utilización progresiva se prevé un cambio radical de la ciencia médica. Los temas incluyen, además de la descripción de mejoras tecnológicas debidas en gran parte a la aplicación de la informática, la discusión sobre los aspectos éticos y los beneficios que se derivarán de esta transformación.

LA TELEMEDICINA

Un ejemplo del gran nivel de uso y desarrollo que han alcanzado las aplicaciones tecnológicas en el campo de las ciencias de la salud, es la telemedicina, concepto que puede definirse como la utilización de señales electrónicas para transferir y/o intercambiar información médica de un lugar a otro, en forma remota y en tiempo real.

En otras palabras podriamos decir que la telemedicina es el empleo de las tecnologías de información y comunicaciones para brindar asistencia médica a quien lo requiera en sitios distantes. Básicamente consiste en latransferencia de información médica a través de redes de comunicación.

PRINCIPIOS FUNDAMENTALES DE LA TELEMEDICINA

Los tres principios que forman la columna vertebral de esta modalidad y que debemos tener presente en todo momento:

Telemedicina es Medicina: dejando de lado la tecnología, estamos ante la presencia de atención médica hacia la ciudadanía cubriendo prevención, curación y rehabilitación. Sumando todo lo referente a la formación Médica

Telemedicina es Servicio a la Sociedad: esto magnifica la importancia de la tecnología y sus adelantos para ponerla a disposición de la gente, para lograr un equilibrio equitativo y eficaz en los servicios que le competen al área de la Salud.

Telemedicina es práctica a distancia: esta es su esencia y su distintiva cualidad. Es importante conocer que la calidad y seguridad de la atención médica están garantizadas con las nuevas Tecnologías, es obvio que se modifican los escenarios y la percepción de la realidad, pero una vez que los Profesionales y usuarios se habitúen los resultados pueden igualarse o superarse en comparación con la medicina clásica

La tecnología para desempeñar la telemedicina puede ir desde el uso de la simple red telefónica hasta los enlaces satelitales, pasando por el intercambio de señales de video y las teleconferencias remotas para trabajo en grupos, entre muchas otras posibilidades y aplicaciones.

APLICACIONES DE LA TELEMEDICINA

A continuación se mencionan algunas de las aplicaciones clasificándolas de acuerdo a su orientación fundamental y el tipo de tecnología asociada.

Diagnóstico Por Imagen: Tele-radiología, tele-dermatología, tele-oftalmología, tele-patología, tele-citología, tele-endoscopía.

Telemetría: tele-cardiología, tele-oftalmología, tele-neurología, tele-emergencia.

Telerobótica: tele-cirugía, tele-endoscopía, endoscopía virtual.

Control De Enfermedad: tele-oncología, tele-emergencia, tele-ortopedia, tele-pediatría, tele-psiquiatría.

Ingeniería Médica: Tele-Bioingeniería, Tele-Ingeniería Clínica

Docencia: Tele-supervisión, tele-soporte domiciliario, tele-rehabilitación.

Gestión: Tele-epidemiología, tele-salud pública, tele-radio seguridad, tele-bioseguridad.

De hecho, la telemedicina representa hoy una de las áreas más promisorias y de mayor desarrollo potencial en el vasto campo de las ciencias de la salud, al tiempo que es de de las que registra una de las mayores cantidades de recursos de información en el World Wide Web.

También acompaña la entrega de servicios de salud, incluyendo diagnósticos clínicos, cuidados directos, educación del paciente y el movimiento de la información médica en formato electrónico, en tiempo real o no, mediante procesos interactivos entre profesionales, pacientes y equipamiento.

En 1959, la Telemedicina permitió por vez primera la transmisión de imágenes radiológicas a través de las líneas telefónicas. Se inauguraba así una nueva etapa tecnológica, en la que un medio audiovisual, acercaba a profesionales alejados físicamente, pero permitiéndoles una discusión interactiva que mejorara el enfoque diagnóstico y coordinándose entre ellos la actitud terapéutica a seguir sobre pacientes igualmente distantes.

En los últimos años, la Telemedicina están adquiriendo un valor singular. Su uso en la pasada guerra del Golfo Pérsico, ó en las más recientes guerras de Yugoslavia y Somalia, ha permitido que delicadas intervenciones médico-quirúrgicas hayan podido ser dirigidas por especialistas desde puntos tan alejados como Alemania ó Estados Unidos con resultados plenamente satisfactorios.

Otro ejemplo del uso intensivo de estas tecnologías de la información al servicio de la medicina, es el privilegiado acceso de que disponen los profesionales del área a enormes bases de datos en línea.

De hecho, se advierte una tendencia convergente, según la cual aparece como teóricamente posible que en un futuro no lejano, todo el conocimiento humano sobre las ciencias de la salud podría estar unificado en una gigantesca base de datos virtual, con accesos diferenciados.

La capacidad de intercambio de información es especialmente útil a

aquellos investigadores interesados en cotejar sus resultados, los mismos que quedan a disposición de otros investigadores, configurándose así densas mallas virtuales de conocimiento, sin perjuicio de las también logran los médicos en virtud de otros servicios de Internet, como los grupos de discusión y listas de interés especializadas.

La robótica constituye un paso más para mejorar la precisión en Medicina, y más concretamente en cirugía. Las nuevas tecnologías han irrumpido en los quirófanos reduciendo los márgenes de error al intervenir y esas características han resultado muy útiles especialmente en traumatología.

Gracias a este aparato se reducen los errores. Sin embargo, las aplicaciones de las nuevas tecnologías demandan un trabajo muy intenso del cirujano y "nunca podrán sustituirle".

El paso previo a la introducción de la robótica fue la cirugía con ordenador. Esa tecnología también exige un intenso trabajo de introducción de datos y cálculos previos; como resultado se obtiene el recorrido, lugar y dirección exacta de la incisión que se debe hacer

Por esta razón los expertos están convencidos de que en el futuro "serán los pacientes los que exijan la aplicación de esta técnica, porque garantiza un estudio muy intenso del daño antes de llegar a la intervención".

Además, el profesional tiene que exponer el campo quirúrgico y realizar un seguimiento posterior muy intenso. Hasta el momento, el gran problema de la utilización de estos aparatos es que el coste de la operación se incrementa considerablemente y esa inversión impide que la robótica se aplique de forma generalizada.

Los beneficios para el paciente son, fundamentalmente, la precisión que aporta en osteotomías y, en general, en todas las intervenciones con acceso difícil o con límites muy reducidos, teniendo en cuenta que su principal aporte es la fiabilidad.

La tecnológia en el área de laboratorio se actualiza de manera frecuente y la forma en que trabajamos o hacemos las cosas representa un avance, ya que lo realizamos conequipo de vanguardia, el que con una mínima cantidad de muestra y otra de reactivos, permite obtener un reporte completo delestado general del paciente. Ese es uno de los adelantos importantes.

Por otra parte, la incorporación de la tecnología móvil a las empresas y profesionales de la salud ofrece importantes beneficios que inciden positivamente en la gestión administrativa, médica y en el cuidado de los pacientes, unido a un ahorro de costos.

Destacamos:

Aumento
del tiempo disponible para pacientes que conduce a una mejoría de la calidad de los cuidados y de la asistencia por parte del personal sanitario.
Disponibilidad y obtención de información en pocos segundos en cualquier lugar y momento, tanto de pacientes como de datos administrativos.
Incremento de la captura de datos de manera fácil y exacta.
Ahorro de tiempo significativo a través de la eliminación de la recogida manual de datos.
Mejora la movilidad de los médicos sin comprometer la accesibilidad a los datos.
Disminuye el número de errores médic
os y del resto del personal sanitario, sobre todo de medicación y posologías (ilegibilidad), datos incompletos o deficiencias.
Facilita la toma de decisiones a tiempo y de manera más exacta en el punto de cuidado del paciente (gran capacidad de almacenamiento de datos e información).
Facilita las referencias con otras aplicaciones:bases de datos de fármacos, etc.
Entre otras novedades tecnológicas, se implementa un sensor en fase clínica que permitirá la mejora del tratamiento y calidad de vida de los pacientes.

Los sensores electrónicos serán, los responsables de los cambios más importantes en el cuidado de la salud, porque suplirán muchas de las pruebas clínicas que hoy realizan los laboratorios hospitalarios.

Asimismo, un fotosensor hará las veces de retina artificial, como un sensor auditivo implantado en el oído, y mejorará la sordera. La tecnología ayudará también a las personas con discapacidades al posibilitar nuevos tratamientos de rehabilitación.

En un futuro próximo las imágenes de resonancia magnética (IRM) permitirán estudiar desórdenes de difícil diagnóstico (esquizofrenia, dislexia, depresión maníaca, etc.); la radiocirugía, las técnicas quirúrgicas mínimamente invasivas o la nueva tecnología del láser harán que los tratamientos sean más simples y eficaces.

Por otro lado, la informatización de la medicina conducirá la automatización, el desarrollo de «sistemas expertos» o softwares diseñados para ayudar en la toma de decisiones y la cibermedicina.

La aplicación de los avances espectaculares de la tecnología del DNA (tests genéticos, chips de DNA o terapia génica), permitirá mejorar la clasificación de las enfermedades, el diseño de fármacos para nuevos protocolos terapéuticos más eficaces.

Los trasplantes con células madre, capaces de proliferar, diferenciarse y regenerar diferentes tejidos, se utilizarán en el tratamiento de algunas enfermedades.

La incorporación de los avances tecnológicos y científicos a la medicina puede plantear a la humanidad difíciles dilemas éticos, pero tambien el estímulo para continuar con la proliferación de nuevos y mejores sistemas de desarrollo

Los descubrimientos que marcan un antes y un después en la historia de la ciencia médica no dejan en la sombra la importancia y efectvidad comprobada de una moderna protagonista del mundo de la salud.

En fin, los sorprendentes y acelerados avances de la medicina y los programas cientifico-tecnologicos, constituyen los dos pilares que han revolucionado, y seguirán haciéndolo, la salud de la humanidad.


Historia de las PC (Computadoras Personales)






La computadora digital moderna es en gran medida un  de  electrónicos que se utilizan para representar y controlar el recorrido de los datos denominados bits (dígitos binarios).




Representación gráfica de los dígitos binarios

El desarrollo del transistor fue  de los inventos más importantes para la revolución de las computadoras personales. El transistor fue inventado en 1948 en los laboratorios Bell. Funciona como un interruptor de estado sólido y sustituyó a la tecnología de tubos de vacío, que era mucho menos adaptable.

La conversión a transistores provocó la tendencia hacia la miniaturización, que continúa hoy en día. En 1959, los ingenieros de Texas Instruments inventaron el circuito integrado o chip, un semiconductor que contiene más de un transistor sobre la misma base y que conecta los componentes sin necesidad de cables. El primer CI tenía seis transistores.

Para dar una idea, en comparación, el microprocesador Pentium Pro de Intel, que se usa en muchos de los sistemas actuales, tiene mas de 5.5 millones de transistores, y la memoria caché de algunos de estos procesadores contiene hasta 32 millones de transistores adicionales. Hoy son muchos los chips que tienen transistores en dicha cantidad.

Ha transcurrido más de medio siglo desde que se inventó la primera computadora. Por lo tanto, la historia de las computadoras debe medirse no tanto en términos de tiempo sino en función de los avances tecnológicos.

Cómo medir los avances tecnológicos de las computadoras

Una computadora está formada por dos elementos con el mismo nivel de importancia: el equipo físico (hardware) y los programas con los que funciona (software), lo cual significa que su gran avance debe considerarse en ambos sentidos. Es decir, el desarrollo de las computadoras se da en:

- Circuitos, y tecnología electrónica.

- Programas básicos con los que opera, incluyendo lenguajes, sistema operativo, etc.

Desde la invención de la primera computadora, se han producido avances en términos de "generaciones".

Primera generación

Abarca desde los comienzos de los ‘50 hasta unos diez años después, período en el cual la tecnología electrónica era a base de tubos de vacío, y la comunicación era en términos del nivel más bajo que puede existir, conocido como lenguaje de máquina. Estas máquinas:

- Estaban construidas con electrónica de tubos de vacío
- Se programaban en lenguaje de máquina

Un programa es un conjunto de instrucciones para que la máquina realice alguna tarea; el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante códigos binarios).

La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos en que constó:

1947 ENIAC. Primera computadora digital electrónica de la historia. Fue una máquina experimental. Tampoco era programable en el sentido actual. Por su tamaño, ocupaba todo un sótano en la universidad. Constaba de 18.000 bulbos, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos de la universidad de Pennsylvania, Estados Unidos.

1949 EDVAC. Primera computadora programable que fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman a las computadoras actuales. Incorporaba las ideas de Von Neumann.

1951 UNIVAC I. Fue la primera computadora comercial. Se fundó la compañía Universal Computer, cuyo primer producto fue esta máquina. El primer cliente fue la oficina del censo de Estados Unidos.

1953 IBM 701. Para ingresar los datos, estos equipos empleaban las llamadas tarjetas perforadas, que habían sido inventadas en la época de la revolución industrial (finales del siglo XVIII) por el francés Jacquard y perfeccionadas por Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número uno en ventas.

En 1954, IBM continuó con otros modelos que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que más tarde evolucionaría y se convertiría en disco magnético.

Segunda generación

Recién a finales de los años 50, los transistores reemplazaron a los tubos de vacío en los circuitos computacionales.
Las computadoras de la llamada segunda generación ya no son de esta tecnología sino de transistores, son más pequeñas y consumen menos electricidad que las anteriores. La forma de comunicación con estas computadoras era mediante lenguajes más avanzados que el lenguaje de máquina, los cuales reciben el nombre de lenguajes de alto nivel o lenguajes de programación.

Características de las computadoras de la segunda generación:

a) Estaban construidas con electrónica de transistores.
b) Se programaban en lenguajes de alto nivel.

Esta segunda generación duró pocos años, porque hubo nuevos avances en los dos aspectos mencionados.

Tercera generación

Esta nueva generación fue inaugurada con la presentación comercial de la llamada "Serie 360"de IBM. Esta firma se dedicó a los aspectos de ingeniería, comercialización y mercadotecnia de sus equipos, logrando en corto tiempo que la noción de las computadoras deje los laboratorios y las universidades y se instale como un componente imprescindible de la sociedad industrial moderna.

Las computadoras de la tercera generación tienen ventajas cualitativamente importantes, debido a dos factores fundamentales:

Están hechas a base de agrupamientos de transistores miniaturizados en paquetes conocidos como circuitos integrados.
aunque se seguían programando en lenguajes de alto nivel, ahora había una forma de comunicación con el programador que resultaba más fácil de emplear que la anterior.

La electrónica de las computadoras de la tercera generación (circuitos integrados) era más compacta, rápida y densa que la anterior, y la comunicación se establecía mediante una interfaz (intermediario) conocida como sistema operativo. Así, los dos criterios que definen a las computadoras de la tercera generación son:

- Están construidas con electrónica de circuitos integrados.

- La comunicación es asistida a través de los sistemas operativos.

Cuarta generación

El nacimiento de las microcomputadoras tuvo lugar en Estados Unidos, a partir de la comercialización de los primeros microprocesadores de la firma Intel, a comienzos de los ‘70.

Durante esta década se impusieron dos tendencias: la de los sistemas Apple, y después comenzó la verdadera explosión comercial masiva, con la introducción en 1981 de la Personal Computer (PC) de IBM. Esta máquina (basada en el microprocesador Intel 8088) tenía características interesantes, en especial su nuevo sistema operativo estandarizado (MS-DOS, Microsoft Disk Operating System); su capacidad gráfica mejorada la hacía más atractiva y fácil de usar.

Existe una familia completa de computadoras personales que se conoce con las nomenclaturas XT, AT y PS/2.

Algunos hitos importantes ocurridos durante la cuarta generación:

1972 Aparece el microprocesador Intel 8008. Circuito de alta integración que iniciaría la era de las microcomputadoras.

1975 Se lanza al mercado la microcomputadora Apple. Aparece el microprocesador Zilog Z80, disparando el auge de la microcomputación.

1981 IBM lanza la computadora personal (PC), luego conocida como PC-XT.

1984 IBM ofrece la computadora personal PC-AT, basada en el microprocesador Intel 80286.

1988 IBM presenta la serie de computadoras personales PS/2, algunas de las cuales incorporan el microprocesador 80386. Surge una gran cantidad de computadoras con ese y otros procesadores de similares características.

1991 Aparecen microprocesadores de muy alto rendimiento: el 80486 de Intel, el 68040 de Motorola, la tecnología RISC, etc., incluso surge el Power PC (Performace Optimization With Enhanced RISC PC), resultado de la alianza entre Apple, IBM y Motorola.

1993 Intel presenta un procesador conocido como Pentium.

En la actualidad, el avance de los circuitos integrados permite contener secciones completas de la computadora, o a veces la computadora en su totalidad (excluyendo desde luego los medios de almacenamiento y comunicación). El criterio de las ayudas para la comunicación sigue siendo básicamente el mismo que en la tercera generación pero con mejoras muy importantes. No obstante, esto no justificaría un cambio de denominación a una nueva generación.

**La quinta generación de computadoras fue un proyecto que apareció durante los ‘80s y se llevó a cabo en Japón, pero se circunscribió a proyectos de inteligencia artificial y no prosperó debido al estancamiento en las investigaciones de campo, puesto que se intentó generar máquinas inteligentes desde el hardware.**

Actualmente existe una computadora para cada uso. Echemos un vistazo a las clases de computadoras que hay, en base a los niveles generales de su funcionamiento.

Supercomputadoras

Son la cumbre de la tecnología y del costo. Se utilizan para trabajos que requieren cantidades enormes de cálculos, como el pronóstico del tiempo, diseños y pruebas de ingeniería, descifrado y cifrado de claves, pronósticos económicos, mapas genéticos, reconstruir cadenas de ADN, etc.

Sus precios alcanzan los 30 millones de dólares y más, y cuentan con un control de temperatura especial para disipar el calor que algunos componentes llegan a alcanzar. Debido a su precio y demanda, son muy pocas las supercomputadoras que se construyen en un año.

Mainframes

También llamadas macrocomputadoras, son grandes, rápidos y caros sistemas capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. Su costo va desde 350,000 dólares hasta varios millones. De alguna forma, los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente, pero las supercomputadoras pueden ejecutar un solo programa más rápido que un mainframe. En el pasado, los mainframes ocupaban cuartos completos o hasta pisos enteros; hoy en día, un Mainframe es parecido a un archivador en algún cuarto con piso o techo falso, construido para ocultar los cientos de cables de los periféricos; su temperatura tiene que estar controlada.

Son necesarios en el mundo de los negocios. Un mainframe es el corazón de las redes o terminales que permiten que cientos de personas trabajen simultáneamente con los mismos datos. Requiere de un entorno especial, frío y seco.

Estaciones de trabajo o Workstations

Las WS se encuentran entre los mainframes y las minicomputadoras (por el procesamiento). Se utilizan para aplicaciones que requieran de poder de procesamiento moderado y relativamente alta capacidad gráfica: ingeniería, CAD (Diseño asistido por computadora), CAM (manufactura asistida por computadora), Publicidad, Creación de Software.

En redes, la palabra "Workstation" se utiliza para referirse a cualquier computadora conectada a una red de área local. Es una parte de una red de computadoras y generalmente se espera que tenga más que una PC desktop habitual: más memoria, más espacio para almacenar y más velocidad.

Minicomputadoras

En 1960 surgió la minicomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que requiere un mainframe, lo cual ayudó a reducir el precio y el costo de mantenimiento. Las minicomputadoras, en tamaño y poder de procesamiento, son el intermedio entre los mainframes y las estaciones de trabajo. En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneos. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario.

Microcomputadoras o PC´s

Las PCs tuvieron su origen con la creación de los microprocesadores. Son computadoras para uso personal y relativamente baratas. Se encuentran en oficinas, escuelas y hogares. Existen otros tipos de microcomputadoras, como la Apple Macintosh, que no son compatibles con IBM, pero en muchos casos se les llama también "PC", por ser de uso personal. Existen varios tipos de PC´s:

- Computadoras personales de escritorio, con pantalla por separado (Desktop). Al hablar de PCs, la mayoría de las personas piensa en el tipo desktop, diseñada para usarse sentado en su escritorio. La torre (tower) y los estilos de gabinetes minitower, más pequeños, se han vuelto populares cuando las personas empezaron a necesitar más espacio para los drives extra que se requerían. Los reparadores ciertamente aprecian la holgura adentro para los cables y las plaquetas.
- Computadoras personales portátiles. "Laptop" o "Notebook" son aquellas computadoras que pueden ser transportadas de un lugar a otro y se alimentan por medio de baterías recargables, pesan entre 2 y 5 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crystal Display).

- Computadoras personales con el gabinete horizontal, separado del monitor. Es el caso de algunas PC como las de Acer, Compaq, Packard Bell, Dell, etc.

- Computadoras personales que conforman una sola unidad compacta el monitor y la CPU. Utilizadas para propósitos específicos.

- Palmtops y Handhelds o PDAs. El mercado de las PCs más pequeñas se está extendiendo rápidamente. El software está haciéndose disponible para los tipos pequeños de PC como las palm o las PDAs . Este nuevo software está basado en nuevos sistemas operativos como Windows CE o Windows for Pocket PC, que soportan versiones simplificadas de las aplicaciones principales de una PC de escritorio. Una ventaja de estos dispositivos es la habilidad para sincronizar con las PC hogareñas o las del trabajo para coordinar agendas ingresando nuevos números de teléfono, citas y/o notas.

Componentes de una PC

En líneas generales, una PC actual se compone mínimamente de:

CPU: la unidad central de procesamiento es quien se encarga de procesar toda la información.

Monitor: es la pantalla donde se visualiza la información tanto mostrada por las solicitudes del usuario como por los ingresos de datos realizados por el mismo.

Teclado: es el medio principal de ingreso de datos al PC; es de tipo qwerty, en general de 101 teclas pero actualmente existen muchos otros modelos.

Mouse: es un dispositivo de entrada de datos muy utilizado actualmente para dar órdenes al computador; es el principal factor de mejoramiento de las interfaces gráficas de usuario, puesto que con pocos movimientos y clicks nos evita tener que escribir comandos por teclado.

Impresora: este dispositivo de salida nos permite imprimir la información necesaria para evitar verla en pantalla o bien para hacerla transportable y/o presentarla a quienes la soliciten.

El gabinete: es el chasis de la computadora. Dentro de él se encuentran todos los dispositivos principales: fuente de alimentación, microprocesador, memorias, tarjeta de vídeo, tarjeta de sonido, motherboard, ventiladores, etc. Pueden tener también disposición vertical u horizontal. La elección depende de cada uno. Para PCs que deben abrirse regularmente, es recomendable el gabinete vertical. Hay dos tipos principales: AT y ATX.

La especificación AT es casi la misma que la del IBM XT, con modificaciones para encajar en una carcasa de su tipo. Este formato debe su éxito a la flexibilidad de su diseño, aunque dicha flexibilidad sea así mismo su principal fuente de problemas:

- Es difícil instalar placas grandes en los slots de expansión puesto que sus sistemas de refrigeración requieren de coolers más grandes.

- La actualización de determinados componentes se convierte en un castigo al tener que desmontar medio ordenador hasta llegar a ellos con holgura.

- El propio diseño AT dificulta la integración de componentes adicionales como controladora gráfica, de sonido o soporte para una red local.

El gabinete AT es compacto, económico y con una fuente estándar de 250 watts. Es el que más se utilizaba anteriormente en el armado de los PC compatibles.

Hoy existen gabinetes mucho más elaborados, donde no sólo se tuvo en cuenta su diseño exterior sino algo mucho más importante, el diseño interior, que permite mejor flujo de aire y distribución correcta de los dispositivos internos.

Así nació el estándar ATX, que puede ser minitower, midtower o tower (comúnmente utilizados para servidores). Es recomendable cuando se piensa agregar: DVDs, grabadores de CD, otro disco, placa de red, placa de captura de vídeo, etc.). El ATX trae una fuente más depurada con controles especiales y potencia de 300 watts, permite un solo conector a la alimentación principal, ubica al microprocesador de modo que no interfiera con otras placas, la memoria RAM es más fácil de instalar, poseen mejor ventilación, los conectores de teclado y mouse son estandarizados (PS/2), espacio para puertos USB o placas on-board, no obstante todo esto dependa del mainboard, pero que facilita las tareas de mantenimiento.

El interior de la CPU o gabinete

Motherboard o placa madre del PC: es la placa más grande e importante existente en el computador. Se ubica en el fondo del gabinete del PC. En ella se insertan el microprocesador, los las memorias, las tarjetas de control y expansión y los cables de comunicación de las unidades de disco, CD, Zips, DVDs, etc. Como representa un componente central, debemos comprender cómo funciona y cómo esta distribuida a fin de diagnosticar acertadamente sus problemas.

Microprocesador: éste es el corazón de la CPU. Se describe en términos de procesamiento de palabra, velocidad y capacidad de memoria asociada (Ej.: 32 bits, 333MHz, 64 MB).

Buses o canales

Son los caminos por los cuales los datos viajan internamente de una parte a otra de la computadora (CPU, disco rígido, memoria). En las computadoras modernas hay buses, por ejemplo entre los puertos IDE y los drives, entre una placa aceleradora de vídeo y la memoria RAM, entre el módem y el Chipset, etc. Pero los buses básicos son: 

a) el bus local, que se compone de dos áreas: bus de datos (dedicado a la transmisión de señales u órdenes), que comunica los diferentes componentes con la CPU y la memoria RAM, y el bus de direcciones, constituido por las líneas que dan a conocer las posiciones de ubicación de los datos en la memoria (registros).

b) el bus de expansión constituido por el conjunto de slots o ranuras en donde se insertan placas de sonido, vídeo, módem, etc. que son de distintos tipos: ISA, que trabaja con un ancho de banda de 16 bits; VESA, que trabaja en 32 bits, pero cayo rápidamente en desuso al aparecer el PCI, cuyo ancho de banda es de 64 bits.

Puertos: son puntos de conexión en la parte posterior del gabinete de la computadora a los que se conectan algunos canales. Permiten una conexión directa con el bus eléctrico común de la PC. Los puertos pueden ser:

PUERTOS SERIE: facilitan la transmisión en serie de datos, un bit a la vez. Este tipo de puertos facilitan la vinculación con impresoras y módems de baja velocidad.

PUERTOS PARALELO: habilitan la transmisión de datos en paralelo, es decir que se transmitan varios bits simultáneamente y posibilitan la conexión con dispositivos tales como impresoras de alta velocidad, unidades de cinta magnética de respaldo y otras computadoras.

Las ranuras de expansión y los puertos simplifican la adición de dispositivos externos o periféricos. Existen muchos dispositivos que pueden incorporarse a una PC para permitirnos realizar diferentes funciones o cumplir con propósitos específicos.

Otros dispositivos de entrada

- Trackball: es una esfera insertada en una pequeña caja que se hace girar con los dedos para mover el apuntador gráfico.

- Joystick: es una palanca vertical que mueve objetos en pantalla en la dirección en que se mueve la palanca.

- Pantalla sensible al tacto: sirven cuando hay muchos usuarios no familiarizados con las computadoras. Puede ser sensible al tacto por la presión o por el calor. Son de muy baja velocidad.

Dispositivos ópticos de entrada

- Lector óptico: usa la luz reflejada para determinar la ubicación de marcas de lápiz en hojas de respuestas estándar y formularios similares.

- Lector de código de barras: Usa la luz para leer Códigos Universales de Productos, creados con patrones de barras de ancho variable. Los códigos de barra representan datos alfanuméricos variando el ancho y la combinación de las líneas verticales. Su ventaja sobre la lectura de caracteres es que la posición u orientación del código que se lee no es tan importante para el lector.

- Lápiz óptico: un haz de luz lee caracteres alfabéticos y numéricos escritos con un tipo de letra especial (también legible para las personas); estos lectores en general están conectados a terminales de punto de venta donde el computador efectúa un reconocimiento óptico de caracteres (OCR).

- Lectora de caracteres magnéticos: lee los caracteres impresos con tinta magnética en los cheques. Un lector-ordenador MICR lee los datos y los ordena para el procesamiento que corresponda. Estos dispositivos de reconocimiento son más rápidos y precisos que los OCR.

- Lectora de bandas magnéticas: aquellas bandas del reverso de las tarjetas de crédito ofrecen otro medio de captura de datos directamente de la fuente. Se codifican en las bandas los datos apropiados y éstas contienen muchos más datos por unidad de espacio que los caracteres impresos o los códigos de barras. Además son perfectas para almacenar datos confidenciales.

- Digitalizador de imágenes (scanner): puede obtener una representación digital de cualquier imagen impresa. Convierte fotografías, dibujos, diagramas y otra información impresa en patrones de bits que pueden almacenarse y manipularse con el software adecuado.

- Cámara digital: permite obtener imágenes digitales; no se limita a capturar imágenes impresas planas; registra lo mismo que una cámara normal, sólo que en lugar de registrarlas en película, las almacena en patrones de bits en discos u otros medios de almacenamiento digital.

- Digitalizador de audio: permite digitalizar sonidos de micrófonos y otros dispositivos de sonido.

- Digitalizador de vídeo: placa que captura entradas de una fuente de vídeo y las convierte en una señal digital almacenable en memoria y presentable en la pantalla de computador.

Dispositivos de almacenamiento secundario

La memoria RAM, es volátil al apagar la máquina, y la ROM no puede guardar nada nuevo. Estos dispositivos permiten a la computadora guardar información a ser recuperada posteriormente. El almacenamiento secundario es más económico y de mayor capacidad que el primario.

Discos magnéticos

Por su capacidad de acceso aleatorio, son el medio más popular para el almacenamiento de datos. Hay dos tipos:

- Discos flexibles o diskettes: son pequeños círculos de plástico flexible con sensibilidad magnética encerrados en un paquete de plástico que puede ser rígido (3.5" o flexible (5.25". Es económico, práctico y confiable, pero tiene poca capacidad de almacenamiento y velocidad para trabajos de gran magnitud (1.2 y 1.44 MB). Estos discos se pueden extraer y luego reinsertar.

- Discos duros o rígidos: son dispositivos clave de almacenamiento de la información en las computadoras. Merecen un especial estudio a fin de conocer cómo instalarlo y mantenerlo. Un disco rígido se compone de varios platos metálicos organizados en su interior los cuales pueden leerse de ambos lados. Las cabezas de lectura, o sea las bobinas en los extremos de los brazos, emiten pulsos eléctricos moviéndose desde fuera hacia dentro y viceversa.

Normalmente, un archivo se almacena diseminado en pistas, sectores y cilindros (forma en que se clasifican los platos metálicos), se graba en las caras de los distintos platos simultáneamente, porque la estructura que sostiene los brazos con sus cabezas de lecto-escritura mueve todo el conjunto de cabezas al mismo tiempo.

El disco duro magnetiza los platos metálicos para poder grabar mientras los platos giran a altas velocidades. Durante el curso veremos cómo se organiza la información en un disco rígido.

Discos ópticos

Utilizan rayos láser para leer y escribir la información en la superficie del disco. Aunque no tan rápidos como los discos duros, los discos ópticos ofrecen gran espacio para almacenar datos.

CD-ROM: (Compact Disc-Read Only Memory) son unidades ópticas capaces de leer discos de datos físicamente idénticos a un disco compacto musical. Son menos sensibles a las fluctuaciones ambientales y proporcionan mayor capacidad de almacenamiento a un costo menor.

DVD: Digital Versatile Disc, son dispositivos ópticos que almacenan unas ocho veces el contenido de un CD-ROM por lo cual su capacidad de almacenamiento se mide en GBytes. Existen dispositivos como los DVD-RAM, que permiten grabar esta cantidad de información en los soportes de información adecuados.

Lo nuevo de microsoft office 2010


Desde hace un largo , el nombre de   es un sinónimo de programas de oficina. A pesar de los avances de las opciones gratuitas, como por ejemplo la suite OppenOffice, aún hoy los programas de oficina creados por Microsoft mantienen una cuota muy importante del mercado. 


Aplicaciones como Word y Excel se han convertido en herramientas vitales para la oficina moderna y cada nueva versión apunta a optimizar el flujo de trabajo, simplificar las tareas más rutinarias y ofrecer nuevas funciones que mejoran el aspecto visual de los archivos generados con estos programas. 

Claro está que a pesar de que Word y Excel son las aplicaciones estrella de la suite, existen otras herramientas muy utilizadas en el paquete, como es el caso de Microsoft PowerPoint para realizar presentaciones o Microsoft Outlook para gestionar correo electrónico. 

 

Todas estas herramientas han evolucionado en cada nueva versión de la suite ofimática de Microsoft y ahora con el lanzamiento de Microsoft Office 2010, las encontramos renovadas y con muchas opciones nuevas que nos ayudarán en gran medida con nuestros trabajos de oficina y presentaciones multimedia. 

En esta nota, vamos a conocer todo lo que debemos saber antes de instalar esta suite, los primeros pasos y luego recorreremos las nuevas características que nos ofrece Microsoft Office 2010 y analizaremos los aspectos más destacados de esta versión. 

Antes de comenzar con Microsoft Office 2010 

Lo primero que debemos saber sobre Office 2010 es que este paquete es compatible con sistemas Windows XP (con SP3), Windows Vista y Windows 7. 

En líneas generales, esta versión podrá funcionar correctamente en una PC que corría anteriormente la versión 2007 de Office, por lo tanto, si contamos con un equipo que podía correr decentemente Office 2007, en principio, no sería necesario renovar el hardware. 

Office 2010 se encuentra disponible en diferentes idiomas incluyendo el castellano. Como ocurre con otros productos de Microsoft, la suite se comercializa a través de distribuciones que cuentan con diferentes características, en este caso las diferencias radican principalmente en las aplicaciones que se incluyen. Por ejemplo, la versión de Office 2010 destinada al hogar y a las pequeñas empresas, ofrece las herramientas más utilizadas, entre las que se encuentran Word, Excel, Outlook, Power Point y OneNote. 

Instalación y primeros pasos 

La instalación de Microsoft Office 2010 es bastante sencilla y no presenta contratiempos si se cumplen con los requisitos y se cuenta con el mínimo de espacio en disco necesario (1,5 GB o más). Los usuarios más experimentados podrán personalizar la instalación, eligiendo las aplicaciones y características que se cargarán en el sistema. 

Una vez instalado el sistema, se crearán el grupo y los iconos en el Menú Inicio de Windows, y a partir de ese momento se podrá acceder a los programas. 

La primera vez que ingresemos a alguna de las aplicaciones de la suite, veremos un cartel que nos consulta si deseamos instalar actualizaciones del paquete (cuando estén disponibles), si sólo vamos a cargar las actualizaciones importantes o si no deseamos activar esta posibilidad. 

Esta pantalla demuestra la importancia que le asigna Microsoft a las actualizaciones de seguridad y a las mejoras del producto, al igual que lo hace con sus sistemas operativos Windows. Es recomendable utilizar estas alternativas si no somos usuarios avanzados o recordar cargarlas manualmente, si preferimos tener más control sobre ellas. Para obtener las actualizaciones es necesario estar conectado a internet. 

Respecto al tema de compatibilidad, Microsoft Office 2010 puede abrir los archivos creados con versiones anteriores del paquete, en el caso inverso, Office 2007 podrá abrir los archivos creados con 2010, aunque algunas características pueden no estar presentes si son exclusivas de esta nueva versión. Para que versiones anteriores a Office 2007 pueda abrir documentos creados con Office 2010, será necesario que sean guardados desde la solapa “Archivo”, con la opción “Guardar como” y allí en el “Tipo”, debemos elegir la opción que sea compatible con 97 y 2003. 


Las novedades de la suite 

Si bien la interfaz que presenta Office 2010 ofrece algunos cambios respecto a la versión 2007, seguramente el salto más marcado se dio entre esa versión y la 2003, no obstante esto, Office 2010 termina de afianzar el salto, trasladando el estilo de la interfaz a mayor cantidad de elementos. 

Otro aspecto visual que se destaca es que el estilo de la nueva versión de la suite de oficina más utilizada, se integra perfectamente con la apariencia de Windows 7, aunque claro está, esto no afecta en absoluto su correcto uso en Windows XP y Vista y los otros sistemas operativos de Microsoft compatibles con Office 2010. 

Uno de los aspectos que ha cambiado es el botón de Office, que ha sido reemplazado por la solapa “Archivo”. 

Entre las opciones para cortar (o copiar) y pegar, además del portapapeles múltiple que ya conocíamos, se agregan nuevas características para personalizar el pegado, además de la inclusión de la posibilidad de previsualizar el contenido, esto nos resultará especialmente interesante al utilizar Microsoft Word. 

En lo que se refiere a texto, Word 2010 nos brinda un nuevo conjunto de opciones, entre las que podemos destacar la posibilidad de trabajar con efectos que simulan sombras, reflexión e iluminación. 

Excel incorpora lo que se conoce en inglés bajo el término de sparkline, es decir pequeños gráficos que muestran información para tener una vista rápida y clara de los datos, también se conoce a este término como información gráfica condensada, que en este caso además podemos personalizar. 

Por el lado particular de Microsoft Outlook, notamos una mayor integración con la interfaz de Office, así como también que ha adoptado el uso de “conversaciones” para mostrar y organizar los mensajes, de alguna manera como lo hace Gmail desde hace tiempo. 

PowerPoint sorprende principalmente por el agregado de nuevas características multimedia, como por ejemplo, la posibilidad de incluir videos, ya sean AVI, MPG, WMV o SWF. Esta opción permite algunos retoques básicos, como el recorte del clip y también algunos efectos 3D. 

Dentro de lo que es multimedia, PowerPoint también ha agregado nuevas funciones para aplicar efectos y correcciones a las imágenes que se incorporan en las presentaciones, una característica que le brinda aún mayor potencia a la aplicación. 

Dependiendo de la versión de Microsoft Office 2010 adquirida, podremos disfrutar de algunas herramientas adicionales, como por ejemplo OneNote, Publisher, Access, InfoPath y SharePoint Workspace, entre otras. 

Como podemos ver, en la mayoría de sus nuevas características de este paquete, encontramos una evolución de las herramientas que conocimos en versiones anteriores y algunas funciones nuevas para ampliar y potenciar el espectro de posibilidades que ofrece la suite ofimática más utilizada del mercado. 

A la par de Office 2010, Microsoft desarrolló lo que se conoce como Office Web Apps, que es una versión gratuita de las herramientas de escritorio, pero para ser utilizadas desde una interfaz web. Estas herramientas son: Word Web App, Excel Web App, PowerPoint Web App, y OneNote Web App. No necesitan instalación, pero sí es necesario que el usuario cuente con un navegador de Internet moderno, una buena conexión a Internet y se recomienda que esté instalado el complemento de Silverlight (http://www.silverlight.net) 

Diferencia entre los procesadores intel i3, i5 e i7



La era del multi-core llego para quedarse y con ella vinieron muchas preguntas a aquí le posteo los  de los nuevos procesadores Intel. y los que les  

La avanzada tecnología en el hardware permite el avance desmedido de los procesadores, lo que hace que el usuario quede cada vez más perdido en  del desorden. Seguramente usted al igual que yo habrá oído o incluso experimentado un ordenador equipado con los nuevos procesadores Intel, pero ya conoce las diferencias entre los nuevos modelos del mayor fabricante de CPUs? 

Decidí crear un artículo especial para los taringueros, y llamar a una discusión de lo mucho que estos nuevos procesadores tienen que ofrecer. Trate de hacer en una manera comprensible sobre las especificaciones, las capacidades y las recomendaciones de uso en cada uno. Obviamente, el artículo es para cualquier usuario que trate de obtener el conocimiento y la información general, pero también se enfrenta a aquellos que deseen adquirir una nueva CPU. 




INTEL CORE i3 

 

Como todo el mundo ya sabe, Intel ha lanzado tres modelos de procesadores diferentes. Cada uno tiene un enfoque, ya que hay usuarios con intereses diferentes. El i3 es la línea de CPUs Intel Core dedicado a menos exigentes. Para pertenecer a la nueva línea Core, el i3 ofrece dos núcleos de procesamiento, tecnología Intel Hyper-Threading (que permite la realización de tareas), la memoria, 4 MB de caché compartida (L3), soporte para memoria RAM DDR3 de hasta 1333 MHz y mucho más. 

Pensas que es poco? i3 tiene mas secretos debajo de la manga 

La línea central de CPU i3 parece débil, sin embargo, vino a sustituir la antigua línea de Core2Duo. Cualquier núcleo i3 viene equipada con un controlador de memoria interna (que ha sido bastante largo en los procesadores de AMD), una controladora de vídeo integrada - Intel HD Graphics que opera a una frecuencia de 733 MHz - que permite el uso de dos canales la RAM (significa que pueden trabajar en pares). 

Intel Hyper-Threading 

En una época en la que los procesadores multi-core son dominantes, Intel decidió crear modelos que puedan simular una cantidad aún mayor de los núcleos. Si usted considera que el CPU Core i3 tienen sólo dos núcleos, se puede imaginar que no va a durar mucho más tiempo. Sin embargo, el uso de procesadores Hyper-Threading de Intel i3 "gana" en los dos núcleos. 

Quien ya tiene un procesador Intel Core i3 puede notar que Windows detecta cuatro núcleos, pero este truco de doblar los núcleos no significa mucho. Y quien piensa i3 trabaja como un quad-core esta totalmente engañado. Para entender la diferencia entre un procesador de cuatro núcleos y otro de dos basta comparar los resultados en su rendimiento. 

Por ejemplo, si pones un Core i3, además de un QuadCore de Intel, no hay duda de que el QuadCore tendrá un rendimiento mucho mayor (en cualquier actividad). Por supuesto, esto no significa que la nueva tecnología es inútil, sino todo lo contrario. Intel Hyper-Threading es ideal para los momentos en que necesita para realizar varias actividades al mismo tiempo. Esta tecnología sirve como un núcleo puede hacer dos cosas a la vez, de ahí la razón por la cual la tecnología supuestamente hace el núcleo doblen en cantidad. 

¿Qué i3 puede lograr? 

Lo que quieras. Este procesador de doble núcleo resulta una excelente opción para cualquier tipo de actividad. Evidentemente, no es tan rápido en eso, pero será muy difícil encontrar un programa o juego que no sea ejecutada por un procesador Intel Core i3 

Cambie su Placa madre 

Corel i3 ha llegado al mercado de hardware no hace mucho tiempo, y complico mucho la situacion de aquellos que querian cambiar de procesadores. Los modelos de los Intel Core i3 utilizan un nuevo socket, un factor que obligó a las montadoras crear tarjetas únicas para las mismas. Conocido como el LGA 1156, este nuevo tipo de conector se utiliza para procesadores Intel Core i3, i5 y los nuevos i7. 


Dos modelos disponibles 

Intel ha optado por restringir la línea de procesadores de bajo rendimiento, por lo que creó sólo dos para la línea Intel Core i3. A continuación encontrará las diferencias entre ellos y también ver una lista de todas las tecnologías que tiene para aumentar el rendimiento de su PC. 

Intel Core ® ™ i3-530 del procesador (4M Cache, 2.93 GHz) 

Intel Core ® ™ i3-540 del procesador (4M Cache, 3.06 GHz) 


Intel Core i5 es el intermediario 

Mientras que el i3 es responsable de cumplir con los usuarios menos exigentes, Intel Core i5 tiene la tarea de satisfacer las necesidades de las empresas del mercado medio, es decir, aquellos que realizan tareas más exigentes . Disponible en dos o cuatro núcleos, los procesadores i5 vienen con hasta 8 MB de caché (L3) para compartir, también utilizan el socket LGA1156, controlador de memoria DDR integrado, tecnología Intel Hyper-Threading y con la tecnologia Turbo Boost. 



Que es? y para que sirve la tecnologia Turbo Boost 

La tecnologia Turbo Boost promete aumentar la velocidad del procesador de forma automática. Según el sitio web de Intel, esta tecnología es inteligente y funciona todo el tiempo controlando la frecuencia, voltaje y temperatura de la CPU. Al notar una disminución en uno de los valores por defecto utilizado por la CPU, aumenta la frecuencia c y logra un rendimiento mucho mayor en cualquier aplicación. 

Imaginate que la temperatura de la CPU es menor de lo esperado y que desea aumentar la velocidad. Con el uso de la tecnología Turbo Boost no debe preocuparse porque su procesador Intel Core i5 va a cambiar la frecuencia o el voltaje de la CPU sin su permiso y pronto verá un aumento significativo en el rendimiento. Hablando específicamente de los modelos i5, existe la posibilidad de un aumento de hasta 800 MHz de velocidad. 

Cuanto cuesta..? 

Si pensas que el Core i3 es caro, mira cuanto estan los de i5. El precesador más débil (Intel Core i5 650) tienen un precio desde $ 242.00 y los más robustos (Intel Core i5 750) puede costar alrededor de $ 300. dolares americanos. 

Vale la pena la inversión? de que el i5 es capaz?? 

Invertir en un procesador y una placa madre puede ser una pérdida de dinero en algunos casos.A los que les gustan los juegos de ultima generación por ejemplo, teniendo en cuenta que estas tareas necesitan mas de una buena placa de video y no requiera una i5. 

Por supuesto, si usted puede pagar por un Core i5, excelente..!!, después de todo, él es capaz de ejecutar todo lo que puedas imaginarte..!. 
Vale la pena destacar que la CPU de esta serie no son los más rápidos , así que siempre habrá un procesador capaz de ejecutar las mismas aplicaciones con un rendimiento aún mayor. 

Mayor rendimiento: Intel Core i7 

Lo último en tecnología de procesamiento es el i7. La línea de procesadores dirigida a los entusiastas y al público profesional, trae muchos beneficios y características asombrosas. Todos los procesadores Core i7 tienen cuatro núcleos (la ha i7-980X seis núcleos), memoria de 8 MB de caché L3, controlador de memoria integrado, Intel Turbo Boost, Intel Hyper-Threading, Intel HD Boost y función Intel QPI. 



Intel HD Boost? para que funciona?? 

Con el avance constante de los procesadores, el software se ha visto obligado a evolucionar tb. Hay programas de software que trabajan con conjuntos de instrucciones específicas que debe estar presente en los procesadores para que el programa se ejecute con el máximo de rendimiento. Los principales conjuntos de instrucciones se nombran como SSE, y hay programas que utilizan diferentes instrucciones. 
La línea de procesadores Intel Core i7 trabaja con Intel HD Boost, que es responsable por la compatibilidad entre la CPU y los programas que utilizan conjuntos de instrucciones SSE4. 
Esta característica proporciona un mejor rendimiento en aplicaciones que requieren mayor potencia de procesamiento de alto nivel. 
Intel QPI 

La función Intel QuickPath Interconnect, o QPI de Interconexión (vía rápida), sirve para aumentar el rendimiento del procesador - por supuesto, Después de todo, todas las tecnologías se crean para eso - sin embargo, este funciona de manera muy diferente. 

En lugar de aumentar la frecuencia o el voltaje, la característica de Intel QPI aumenta el ancho de banda (que permite la transmisión de más datos) y disminuye la latencia. Cabe mencionar que esta función sólo está presente en el procesador Intel Core i7 900 serie y permite tasas de transferencia de hasta 25,6 GB / s. 

Quiero una i7 en mi equipo 

Realice algunas averiguaciones de precios de los procesadores i7 acá en ciudad del este, Paraguay. Pero solo de saber los precios cualquiera se desanima.. 

El modelo más simple de la serie i7 (el i7-860) tiene un precio desde $ 370, mientras que modelos más robustos como el i7-940 se venden por alrededor de $ 875. en dolares americanos.