lunes, 25 de marzo de 2013

¿Con qué información nos quedamos?

Supongamos que deseamos escribir un artículo en el que vamos a recomendar qué computadora conviene comprar para editar videos.
Luego de utilizar el buscador encuentras las siguientes páginas:

http://www.gratistaringa.net/f11/quiero-maquina-edicion-de-video-me-recomiendan-606900/

http://www.cinedigital.tv/que-computadora-necesito-para-edicion-de-video/

http://www.xataka.com/videocamaras/guia-para-editar-video-equipo-y-programas-de-edicion-especial-video-xi

http://www.diginota.com/icomo-serian-las-especificaciones-ideales-para-una-maquina-con-windows-7/

http://www.ehowenespanol.com/computadoras-ideales-pesado-photoshop-info_202060/

  1. ¿Cuál de todas las páginas consideras de mayor seriedad y veracidad? ¿Qué criterios tuviste en cuenta para realizar esta elección?
  2. ¿Cuál de las páginas consideras menos seria y menos creíble? ¿Qué aspectos analizaste?
Para responder estas preguntas dejamos algunas herramientas.

3. Selecciona información de las páginas que consideres más interesante y arma el artículo en un procesador de textos, para luego publicar en nuestro Blog.

miércoles, 7 de marzo de 2012

Tarea diagnóstica: Reconocemos aplicaciones

OpenOffice.org

Frecuentemente escrito OOo para abreviar, es una suite ofimática libre (código abierto y distribución gratuita) que incluye herramientas como procesador de textos, hoja de cálculo, presentaciones, herramientas para el dibujo vectorial y base de datos.4 Está disponible para varias plataformas, tales como Microsoft Windows, GNU/Linux, BSD, Solaris y Mac OS X. Soporta numerosos formatos de archivo, incluyendo como predeterminado el formato estándar ISO/IEC OpenDocument (ODF), entre otros formatos comunes, así como también soporta más de 110 idiomas, desde febrero del año 2010.3
OpenOffice.org tiene como base inicial a StarOffice, una suite ofimática desarrollada por StarDivision y adquirida por Sun Microsystems en agosto de 1999.5 El desarrollo de la suite está liderado por Oracle Corporation (inicialmente por Sun Microsystems), en colaboración con otras compañías como Novell, RedHat, RedFlag CH2000, IBM, Google, entre otras hasta octubre de 2010.1 El código fuente de la aplicación está disponible bajo la Licencia pública general limitada de GNU (LGPL) versión 3.6
El proyecto y el programa son denominados «OpenOffice» de forma informal, aunque «OpenOffice.org» es el nombre oficial completo, ya que la denominación openoffice es una marca registrada en posesión de otra empresa.7  (Fuente: Wikipedia)

OOoBase.svgBase



Una de las aplicaciones que tiene el OpenOffice.org se denomina Base, es un programa de base de datos similar a Microsoft Access. OpenOffice.org Base permite la creación y manejo de bases de datos, elaboración de formularios e informes que proporcionan a los usuarios finales un acceso fácil a los datos.

Podrás acceder a la Iniciación al diseño de bases de datos son software libre (Openoffice Base) haciendo clic aqui.
TAmbien puedes acceder al Tutorial para usuarios de Windows de la herramienta Open Office Base haciendo clic aqui.


jueves, 16 de septiembre de 2010

La escuela Media seleccionada entre las primeras escuelas que implementarán el Programa Conectar Igualdad en todo el paìs.



La escuela Media de San Cayetano fue seleccionada entre las primeras escuelas que implementarán el Programa Conectar Igualdad. Este programa consiste en la entrega a cada alumno de la escuela una netbook o computadora portátil.

Los directivos y docentes especializados en el área tecnológica de la escuela media fueron convocados a un encuentro interprovincial en Mar del Plata, de supervisores, directores y docentes técnicos, del que participaron aproximadamente 350 escuelas del país.



Durante el encuentro, se presentaron las características técnicas, institucionales y pedagógicas del programa, se presentó paralelamente el plan de conectividad e infraestructura del que irá acompañado. Para lograr que la escuela tenga un piso tecnológico adecuado para que todas las computadoras puedan trabajar en red y posean Internet, se ha realizado un convenio con la UTN(Universidad Tecnológica nacional), quienes realizarán todas las instalaciones.

A nivel escolar, en la escuela media se planifica la creación del departamento de informática integrado no sólo por los profesores del área sino también por los alumnos que cursan el itinerario formativo de asistente en informática con la finalidad de ayudar solucionar y asesorar en todas las cuestiones técnicas que puedan necesitar tanto docentes como alumnos.




Las computadoras portátiles además tendrán incorporada una propuesta de estudio con contenidos y recursos digitales y multimediales, es decir que tendrán enciclopedias, programas del Canal Encuentro y el portal Educ.ar, audios, videos, textos específicos y trabajos prácticos. Contarán con los sistemas operativos Linux y Microsoft (uso alternativo), así como el Open Office y una licencia Office educativa.


CÓMO SE IMPLEMENTARÁ EL PROGRAMA


En los actos de entrega, la madre, padre o tutor de cada menor firmará un comodato gratuito de responsabilidad por la computadora que recibe. Una vez que el menor termine el secundario, la computadora pasará a ser de su propiedad.
En ese mismo acto, los estudiantes firmarán un Compromiso de Honor por el uso y cuidado del equipamiento que reciben, comprometiéndose a darle prioridad al uso educativo del mismo. Los alumnos podrán llevar las computadoras a su domicilio y hacer uso intensivo de ellas.



La primera vez, para habilitar sus computadoras, los estudiantes deberán conectarse al servidor de la escuela y registrar su equipo en el Portal Educativo. Ese registro estará sincronizado con bases de datos de ANSES.


MEDIDAS DE SEGURIDAD


Las computadoras tendrán incorporado un software de seguridad que inutiliza su funcionamiento en caso de robo o extravío o en caso de que se detecte un uso sistemático fuera de la jurisdicción educativa. Esto significa que regularmente la computadora deberá conectarse con el Router de la institución educativa.

Video institucional Programa Conectar Igualdad.

viernes, 16 de julio de 2010

Historia de la Comunicación e Información

Línea del tiempo

1. Introducción

Proceso de transmisión y recepción de ideas, información y mensajes. En los últimos 150 años, y en especial en las dos últimas décadas, la reducción de los tiempos de transmisión de la información a distancia y de acceso a la información ha supuesto uno de los retos esenciales de nuestra sociedad

2. Orígenes

La comunicación actual entre dos personas es el resultado de múltiples métodos de expresión desarrollados durante siglos. Los gestos, el desarrollo del lenguaje y la necesidad de realizar acciones conjuntas tienen aquí un papel importante

Comunicación a distancia

Con el desarrollo de la civilización y de las lenguas escritas surgió también la necesidad de comunicarse a distancia de forma regular, con el fin de facilitar el comercio entre las diferentes naciones e imperios.

Papel e impresión

Los egipcios descubrieron un tipo de material para escribir que se extraía de la médula de los tallos de una planta llamada papiro. Posteriormente se inventó el pergamino, que se obtenía preparando las dos caras de una tira de piel animal. Entretanto, en China, hacia el año 105 d.C. se descubrió el papel. Mil años después, al llegar esta técnica a Europa, provocó una gran demanda de libros. A mediados del siglo XV, el inventor alemán Johann Gutenberg utilizó tipos móviles por primera vez en Europa para imprimir la Biblia. Esta técnica amplió las posibilidades de estudio y condujo a cambios radicales en la forma de vivir de los pueblos. Contribuyó a la aparición de un mayor individualismo, del racionalismo, de la investigación científica y de las literaturas nacionales. En el siglo XVII surgieron en Europa unas hojas informativas denominadas corantos, que en un principio contenían noticias comerciales y que fueron evolucionando hasta convertirse en los primeros periódicos y revistas que ponían la actualidad al alcance del gran público.
Las técnicas y aplicaciones de impresión se desarrollaron, por lo general, con gran rapidez en los siglos siguientes. Esto se debió sobre todo a la introducción de las máquinas de vapor en las imprentas a principios del siglo XIX y, posteriormente, a la invención de las máquinas tipográficas. La primera de estas máquinas, denominada linotipia, fue patentada en 1884 por el inventor germano-estadounidense Ottmar Mergenthaler. En las décadas siguientes fueron apareciendo una serie de técnicas de impresión a gran escala, cada vez más rápidas.

Servicios postales

De los diferentes tipos de servicios de comunicación de la antigüedad, el más notable fue el sistema de relevos del Imperio persa. Jinetes a caballo transportaban mensajes escritos de una estación de relevos a otra. Basándose en este sistema, los romanos desarrollaron su propio sistema de postas (del latín positus, puesto), de donde procede el término "servicio postal". En Extremo Oriente también se emplearon sistemas similares.
A pesar de que en la Europa medieval los servicios postales eran en su mayor parte privados, el auge del nacionalismo posterior al renacimiento propició la aparición de sistemas postales gubernamentales. A finales del siglo XVIII había desaparecido gran parte de los servicios privados.

Mayor rapidez en la comunicación a larga distancia

Los sistemas postales modernos siguieron creciendo con la aparición del ferrocarril, los vehículos de motor, los aviones y otros medios de transporte. Últimamente ha surgido el correo electrónico. Sin embargo, a lo largo de los siglos siempre se han buscado medios de comunicación a larga distancia que fueran más rápidos que los convencionales. Entre los métodos más primitivos se encuentran los golpes de tambor, el fuego, las señales de humo o el sonido del cuerno. En la edad media se utilizaban palomas mensajeras para transmitir mensajes. Hacia 1790, Claude Chappe, científico e ingeniero francés, inventó un sistema de estaciones de semáforos capaz de enviar mensajes a muchos kilómetros de distancia en algunos minutos. La distancia entre estas grandes torres (similares a las utilizadas posteriormente en el ferrocarril) podía alcanzar los 32 km. Este sistema de semáforos con telescopios y espejos reflectantes (adoptado por Gran Bretaña y Estados Unidos) era lento, pues era necesario repetir las señales en cada estación con el fin de verificar la exactitud de la transmisión.

Telégrafo

Con el descubrimiento de la electricidad en el siglo XVIII, se comenzó a buscar la forma de utilizar las señales eléctricas en la transmisión rápida de mensajes a distancia. Sin embargo, no se lograría el primer sistema eficaz de telegrafía hasta el siglo XIX, cuando en 1837 se hicieron públicos dos inventos: uno de Charles Wheatstone y William F. Cooke, en Gran Bretaña, y otro de Samuel F. B. Morse, en Estados Unidos. Morse también desarrolló un código de puntos y rayas que fue adoptado en todo el mundo (Código Morse internacional). Estos inventos fueron mejorados a lo largo de los años. Así, por ejemplo, en 1874, Thomas Edison desarrolló la telegrafía cuádruple, que permitía transmitir dos mensajes simultáneamente en ambos sentidos.

Teléfono

A pesar de que la telegrafía supuso un gran avance en la comunicación a distancia, los primeros sistemas telegráficos sólo permitían enviar mensajes letra a letra. Por esta razón se seguía buscando algún medio de comunicación eléctrica de voz. Los primeros aparatos, que aparecieron entre 1850 y 1860, podían transmitir vibraciones sonoras, aunque no la voz humana. La primera persona que patentó un teléfono eléctrico, en el sentido moderno de la palabra, fue el inventor de origen inglés Alexander Graham Bell, en 1876. En aquellos años, Edison investigaba la forma de poder registrar y reproducir ondas sonoras, abriendo así el camino a la aparición del gramófono.

Radio

Los primeros sistemas telegráficos y telefónicos utilizaban el cable como soporte físico para la transmisión de los mensajes, pero las investigaciones científicas indicaban que podían existir otras posibilidades. La teoría de la naturaleza electromagnética de la luz fue enunciada por el físico británico James Clerk Maxwell en 1873, en su Tratado sobre electricidad y magnetismo. Las teorías de Maxwell fueron corroboradas por el físico alemán Heinrich Hertz. En 1887, Hertz descubrió las ondas electromagnéticas, estableciendo la base técnica para la telegrafía sin hilos.
En la década siguiente se realizaron gran número de experimentos para la transmisión de señales sin hilos. En 1896, el inventor italiano Guglielmo Marconi logró enviar una señal sin hilos desde Penarth a Weston-super-Mare (Inglaterra), y en 1901 repitió el experimento desde Cornwall, a través del Océano Atlántico.  La primera emisión de radio tuvo lugar en 1906 en los Estados Unidos.

Transmisión de imágenes

El pintor e inventor francés Louis Jacques Mandé Daguerre descubrió un proceso químico de revelado que permitía tiempos de exposición cortos, consiguiendo el tipo de fotografía conocido como daguerrotipo.
A finales del siglo XIX se descubrieron diferentes métodos que conferían a la fotografía la ilusión de movimiento. En 1891, Edison patentó el cinetoscopio, máquina para proyectar imágenes en movimiento, que presentó en 1889. En 1895, los hermanos Lumière presentaron y patentaron el cinematógrafo, máquina que lograba proyectar imágenes en movimiento. A finales de la década de 1920, se añadió el sonido a estas imágenes en movimiento.

Televisión

El sistema de transmisión de imágenes en movimiento está basado en varios descubrimientos, entre los que se encuentra el disco perforado explorador, inventado en 1884 por el pionero de la televisión, el alemán Paul Gottlieb Nipkow. Otros de los hitos en el desarrollo de la televisión son el iconoscopio y el cinescopio, para transmitir y recibir, respectivamente, imágenes a distancia, inventados ambos en 1923 por el ingeniero electrónico ruso Vladímir Kosma Zworykin. En 1926, el ingeniero escocés John Logie Baird utilizó este sistema para demostrar la transmisión eléctrica de imágenes en movimiento. Estos inventos propiciaron nuevos progresos en Estados Unidos, Gran Bretaña y Alemania. En Gran Bretaña la BBC inició la emisión de sus programas de televisión en 1927 con el sistema de Baird, y en 1937 se inauguró el primer servicio público de televisión de calidad.
A finales de la II Guerra Mundial la televisión se adueñó de los hogares estadounidenses. El número de emisoras de televisión pasó de 6 en 1946 a 1.362 en 1988. En Gran Bretaña, a finales de la década de 1980, el pasatiempo más popular era ver la televisión, y el 94 de los hogares disponía de una televisión en color. En España, el 98 de los hogares tiene hoy un televisor.
La televisión se ha extendido por todo el mundo; los satélites de comunicaciones permiten transmitir programas de un continente a otro y enviar acontecimientos en vivo a casi cualquier parte del mundo (Comunicaciones vía satélite). Los circuitos cerrados de televisión se utilizan, entre otras aplicaciones, en los bancos para identificar cheques, en las compañías aéreas para mostrar información de vuelo y en medicina para estudiar las técnicas a utilizar en el quirófano. La grabación de vídeo también ha revolucionado la capacidad de almacenamiento, recuperación y transmisión de la información.

Computadoras

Uno de los avances más espectaculares dentro de las comunicaciones -comunicación de datos- se ha producido en el campo de la tecnología de las computadoras. Desde la aparición de las computadoras digitales en la década de 1940, éstas se han introducido en los países desarrollados en prácticamente todas las áreas de la sociedad (industrias, negocios, hospitales, escuelas, transportes, hogares o comercios). Mediante la utilización de las redes informáticas y los dispositivos auxiliares, el usuario de un ordenador puede transmitir datos con gran rapidez. Estos sistemas pueden acceder a multitud de bases de datos. A través de la línea telefónica se puede acceder a toda esta información y visualizarla en pantalla o en un televisor convenientemente adaptado.

Comunicaciones y cambio cultural

A lo largo de la historia, los medios de comunicación han ido avanzando en paralelo con la creciente capacidad de los pueblos para configurar su mundo físico y con su creciente grado de interdependencia. La revolución de las telecomunicaciones y de la transmisión de datos ha empujado al mundo hacia el concepto de "aldea global". Los efectos de estos nuevos medios de comunicación sobre la sociedad han sido muy estudiados. Hay quienes sostienen que los medios de comunicación tienden a reforzar los puntos de vista personales más que a modificarlos, y otros creen que, según quién los controle, pueden modificar decisivamente la opinión política de la audiencia. En cualquier caso, ha quedado demostrado que los medios de comunicación influyen a largo plazo, de forma sutil pero decisiva, sobre los puntos de vista y el criterio de la audiencia.

viernes, 7 de mayo de 2010

Los nuevos cerebros de las Pc´s


El martes último, AMD presentó en sociedad su procesador de seis núcleos, el Phenom II X6. Se sumó así a Intel, que había lanzado su chip de seis núcleos, el Core i7-980X Extreme, el 11 de marzo último. Con este lanzamiento los chips de seis núcleos entraron firmemente en el mercado de equipos de escritorio y se transformaron en una posibilidad concreta para cualquier usuario. Más allá de que su costo no permite todavía que estén en cualquier presupuesto, definen cómo los dos fabricantes que dominan el mundo de las PC ven el futuro del hardware para computación personal.


Varios cerebros, una cabeza


Primero hay que entender qué es esto de los seis núcleos, claro. Históricamente, un chip tenía un solo núcleo, y sigue siendo así en muchísimos casos. Este cerebro electrónico es el que procesa las instrucciones que recibe del sistema operativo y los programas. La
manera tradicional de aumentar su capacidad es sumando transistores y aumentando el reloj del chip (hoy se mide en gigahertz), que marca el ritmo con el que el chip hace los cálculos.
Esto, sin embargo, implica un mayor consumo de energía, lo que también implica problemas de interferencia eléctrica dentro del chip. Aunque originalmente se pensaba que el reloj de los procesadores seguiría aumentando su ritmo sin problemas, a mediados de la década pasada resultó obvio que no existía la tecnología para ir más allá de los 3 o 4 GHz sin inconvenientes.
Una forma de superar esta limitación y aumentar la performance de los procesadores llegó con los chips de doble núcleo: sencillamente, dos cabezas piensan mejor que una. Así, en 2004 primero AMD y luego Intel presentaron procesadores de doble núcleo.
Un procesador tradicional resuelve las tareas encomendadas en forma lineal: primero una, luego otra. Con un chip de doble núcleo se pueden hacer cálculos en simultáneo. Es un trabajo en equipo: mientras uno está ocupado en una tarea el otro puede ocuparse de más cosas, algo importante en los sistemas operativos modernos, que tienen gran cantidad de componentes realizando tareas todo el tiempo (más allá de lo que
ordene el usuario).
El mayor beneficio lo obtienen las aplicaciones que hacen un uso intensivo de los recursos del sistema, sobre todo juegos y programas multimedia, ya que con varios núcleos es posible mantener la agilidad original del sistema operativo aun cuando se esté ejecutando una tarea compleja.
Hasta el año pasado era posible encontrar chips de cuádruple núcleo en el mercado, tanto de AMD como de Intel. Hay, por supuesto, procesadores de más núcleos: tanto la PlayStation 3 de Sony como la Xbox 360 de Microsoft usan un chip de 8 núcleos.
Una de las limitaciones a las que se enfrentan estos procesadores, sin embargo, es que aun cuando se dispone de 4 núcleos, para que las posibilidades que brindan se aprovechen realmente tanto el sistema operativo como las aplicaciones que funcionan en él deben estar preparados para distribuir los procesos entre los diferentes núcleos.
Windows 7 y Mac OS X 10.6 aprovechan esta tecnología.
Aun así, no todas las tareas pueden paralelizarse; es decir, realizarse en varias partes al mismo tiempo sencillamente porque están compuestas de eventos secuenciales. Por eso un procesador de texto o el navegador no van a funcionar mucho más rápido con un chip de cuádruple núcleo que en uno de un solo núcleo.
Con los chips de seis núcleos, tanto AMD como Intel tomaron una decisión similar, implementando una tecnología que busca aprovechar ese hardware disponible. En los chips de AMD se llama Turbo Core, mientras que Intel la denomina Turbo Mode.
La función, en ambos casos, es similar: cuando se está ejecutando código que no puede resolverse en paralelo, el chip baja la velocidad de la mitad de sus núcleos que no se están usando y aumenta el reloj de los que sí tienen tareas, en una suerte de auto overclocking. El límite lo da el consumo máximo de energía del chip y el tope de calor disipado que admite.
Además, Intel incluye en sus nuevos chips una tecnología llamada Hyper-threading, que permite ejecutar dos hilos de procesos al mismo tiempo en un solo núcleo, lo que posibilita duplicar virtualmente la cantidad de núcleos que tiene un chip; la performance, sin embargo, no es similar a la que ofrecerían esos mismos núcleos si estuvieran
físicamente presentes.
Los chips de seis núcleos ya están a la venta. El de Intel tiene un precio en Estados Unidos que ronda los US$ 1000; el de AMD está disponible allí por unos US$ 300. Eso no significa que no sea posible tener un chip de más de un núcleo en una PC convencional; de hecho, hace tiempo que ambas compañías los ofrecen en la Argentina.


La oferta de AMD


La línea de microprocesadores de AMD está compuesta por las familias Athlon y Phenom; en general, en el país se consigue la versión II, que incluye modelos de doble núcleo (indicado con la leyenda X2), triple (X3) o cuatro núcleos por procesador (X4). Los chips más económicos de la compañía son los Sempron (que también tienen el menor rendimiento).
En términos generales, el tope de línea son los Phenom II X4 (obviando, claro, el X6 anunciado esta semana), seguidos por los X2 y luego los Athlon II X2.
El número de modelo indica su performance relativa. Así, un Athlon II 240 ($ 317 en los comercios especializados) tiene un rendimiento inferior al X2 250 ($ 364). Un Athlon II X3 435 tiene un precio local de 403 pesos; un X4 630, de 542 pesos. Los Phenom II son más caros: el X4 945 por un valor local aproximado de 770 pesos; el X4 955, de 850 pesos.
Los chips de AMD usan sockets AM3 o AM2+, que tienen la ventaja de ser físicamente idénticos, y por lo tanto permiten instalarlos en el mismo motherboard; es decir que si es compatible (algunos no lo son, o requieren una actualización de BIOS) será posible reemplazar un Athlon II por un Phenom II usando el mismo motherboard.
En www.amd.com/la/products/Pages/processors.aspx se listan todos los modelos disponibles y sus especificaciones técnicas.
AMD lanzó el año último, además, una guía, denominada Vision, para determinar la performance relativa del equipo, teniendo en cuenta no sólo el chip central, sino también el procesador de video, el tipo de memoria RAM que admite y otras cosas.
"Son tres líneas: Vision, Vision Premium y Vision Ultimate, a la que se agregaría una más, Vision Black, que es el tope de línea, y que es donde entraría el Phenom II X6 -explica José Luis Fernández, especialista de tecnología de AMD para la América del Sur hispana-. Hasta ahora se vio sobre todo en las notebooks, pero este año también se va a ver mucho en PC de escritorio."
Esta clasificación es una evaluación relativa de rendimiento. Por ejemplo, quienes sólo ven videos, navegan por la Web, escuchan música y usan el e-mail, sólo necesitan (según AMD) de un equipo Vision; para ver video de alta definición o usar videojuegos, se debería optar por un Vision Premium; y la versión Ultimate ya permite edición multimedia, grabar video, videojuegos avanzados y demás. En http://sites.amd.com/la/vision/Pages/vision.aspx hay más información al respecto.


Lo nuevo de Intel


En cuanto a Intel, la compañía cambió la nomenclatura que usó en los últimos años, y ahora redujo su oferta a cinco variantes: se mantienen los chips Celeron como la línea de valor de Intel, la más básica.
También se mantiene Pentium en un rango intermedio. Y después está la familia Core como los productos con más desempeño: Core i3, i5 e i7 (independientemente de que sean para desktop o notebook). Según explicó Rocío Posadas, gerente del área de consumo de Intel para el Cono Sur: "El Pentium es el que tiene la mayoría de las ventas en el mercado local".
Un elemento notorio de la línea 2010 de procesadores Core es que incluyen un chip de video integrado, tanto en las versiones móviles como en las de escritorio; permiten ver video en alta definición, aunque no reemplazan a una aceleradora de video 3D.
Aquí, la familia y el número de modelo indican el rendimiento relativo: el Core i7 es el que tiene mejor performance, seguido por el i5 y el i3; lo mismo sucede dentro de una misma línea.
Así, el Core i5 750S tiene mayor poder de cálculo que el Core i5 650: aunque el reloj de este último es menor que el primero, el 750S tiene cuatro núcleos contra los dos del 650. A la vez, el 650 está construido con tecnología de 32 nanómetros, lo que permite un menor consumo de energía. Hay que tener en cuenta que toda la línea Core usa un socket1156 (es decir, el tipo de conector para el motherboard). Para tener una
idea de precios de microprocesadores para equipos de escritorio: un Core i3 530 tiene un valor local que ronda los $ 695; un Core i5 750, $1084; un Core i7 860, 1560 pesos.
En el mercado local todavía están disponibles procesadores con arquitecturas anteriores. Por ejemplo, los Core 2 Duo (el modelo E7500 tiene un precio de 600 pesos) o Core 2 Quad: el Q8400 se consigue en los negocios especializados por unos 910 pesos. El primero es un chip de doble núcleo; el segundo, de cuatro núcleos. Un Pentium Dual Core E5400, $ 365, y un Celeron 430, 190 pesos. En este caso usan el socket 775, incompatible con el de los Core i3 a i7; quien quiera adquirir uno de
los chips nuevos deberá cambiar también el motherboard.
En lo que se refiere a la línea Atom, para netbooks, a los modelos disponibles el año último (el N270 y N280) se sumaron otros nuevos, entre ellos, los N450/N470, de 64 bits, que están apareciendo en varias netbooks disponibles en el mercado local, y el D510, que es de doble núcleo.
En www.intel.com/espanol/products/processor/ se listan todos los modelos disponibles de las familias de productos y sus ventajas relativas.
Quienes busquen tablas comparativas de rendimiento de estos y otros procesadores pueden visitarwww.cpubenchmark.net , www.tomshardware.com/charts/ ,http://hothardware.com/category/processors.aspx o www.anandtech.com/tag/cpus
, entre otros sitios especializados.

martes, 26 de mayo de 2009

Cómo detectar si tu PC es un botnet

Después de haber dado una breve explicación acerca de los botnets y ver un poco el panorama de éstos en la red, quedan solo algunos aspectos por cubrir acerca de éste software malicioso causante de la mayoría de los delitos incurridos en la red. ¿Cómo se puede convertir mi PC en un software robot (botnet)? ¿Cómo detectar si mi ordenador es un botnet? ¿Qué síntomas tiene un botnet? entre otros aspectos que se intentarán aclarar en la siguiente anotación.

redzombi

El peligro que representan este tipo de amenazas en la web es bastante claro, como si se tratara de un ejército a plena disposición de personas con fines maliciosos. Miles de ordenadores en espera de alguna orden para causar multitud de estragos en la red, a continuación algunos aspectos a considerar para evitar este tipo de situaciones:

¿Cómo se puede convertir mi PC en un software robot (botnet)?

La mayoría de los ordenadores no se infectan nada más porque si, aplica de una manera similar a la tercera Ley de Newton: a toda acción hay una reacción. En los equipos de cómputo es la misma, un ordenador no se convierte en botnet por arte de magia, requiere que el usuario realice alguna actividad (acción) para que se pueda convertir en un botnet (reacción).

¿Qué son las botnets?

Representan en la actualidad una de las mayores amenazas en la web, detrás de estos robots se encuentran la mayoría de los fraudes que se cometen en internet.

botnet

Un botnet es un término que hace referencia a una colección de software robots, o bots, que se ejecutan de manera autónoma. El dueño del botnet o bot master puede controlar todos los ordenadores/servidores infectados de forma remota. Para la creación de este tipo de software malicioso normalmente se utilizan lenguajes Orientados a Objetos para construir debido a que resultan mucho más cómodos.

El número de ordenadores/servidores que son considerados como botnets son demasiados, el mes pasado se descubrió un repositorio con datos de más de 160,000 ordenadores que formaban parte de una red además de que se incluían más de 5,000 ordenadores diarios. Estos equipos por lo regular son utilizados con fines no éticos pues en la mayoría de las veces, estos equipos se encuentran detrás de los ataques de denegación de servicio o comúnmente conocidos como DDoS, Spam, entre otros.

Este tipo de información sirve como base para replantear las investigaciones que se tienen para tratar de encontrar nuevos patrones en la forma que trabajan estas mafias cibernéticas, por lo regular, el modo de operación de los botnets está bastante bien definido, que la mayor parte del tiempo ni siquiera nos damos cuenta que nuestro ordenador es un software robot a disposición de alguna persona o mafia.

Fuente: Culturación

domingo, 1 de marzo de 2009

¿Qué es un postcast?

Me pareció interesante este artículo, que de manera muy clara explica sobre Podcast. Seguro, próximamente publicaremos algún postcast con los alumnos.

Fuente de información: Punto y Aparte.

La mayoría de vosotros habréis visto que últimamente hablo mucho sobre podcasts. Incluso he subido un par de podcasts. Pero ¿qué narices es un podcast?

1256 personas han escuchado el primer podcast. La noticia llegó a barrapunto, criadero de frikis, y mucha gente, más de la que me esperaba, escuchó el podcast. Pero eso no resuelve la incógnita.

¿Qué es un podcast?

La Wikipedia tiene una definición muy tocha en inglés y otra en castellano -un poco improvisada- , y en minid.net e informediario.com también se intentó contestar a esta pregunta.

Incluso yo mismo lo expliqué en la primera entrega, pero creo que no fue suficiente. Así que lo voy a dejar por escrito.

Un podcast es un archivo de audio. Su contenido es diverso, pero suele ser un weblogger hablando sobre temas interesantes. Esta es la definición base. Ahora, podemos ampliarla de diferentes maneras.

Hay podcasts sobre tecnología, el mío es uno de ellos. Alguna gente prefiere usar un guión y otros hablan a capella y de forma improvisada. Algunos parecen un programa de radio, intercalando música, mientras que otros hacen podcasts más cortos y exclusivamente con voz. ¡Igual que con los weblogs!

¿Cómo se escucha un podcast?

Te bajas el archivo de audio. A partir de ahí, es cosa tuya. Hay quien usa programas especiales que leen archivos de índices y descargan la música automáticamente y la transfieren a un reproductor mp3. Algunos simplemente lo escuchan en el ordenador. Al fin y al cabo, es un simple archivo de sonido, no una nueva frikada que requiere bajar cienmil programas y códecs para hacer la O con un canuto

¿Por qué la gente hace podcasts?

Yo lo hago porque me divierte. Porque es una novedad y me gusta estar en la cresta de la ola. Porque me ayuda a mejorar mi expresión hablada. Porque a la gente le hace gracia escuchar a las personas que lleva tiempo leyendo. Porque no existen programas de radio “profesionales” que hablen sobre temas que nos interesen

Cada uno tiene sus motivaciones, como con los weblogs

¿Cuántos podcasts hay?

En inglés, miles. En castellano, unos pocos, alrededor de diez. Pero esthamous trabahandou en ellou y vamos a crear una página para llenar este vacío. Supongo que en breve habrá un índice de podcasts, información básica sobre cómo hacerlos y un poco de discusión

¿Cómo se hace un podcast?

Si sólo quieres escucharlo, no te preocupes por ello. Tú solamente bájate el archivo de sonido y escúchalo. Si quieres hacer uno, yo mismo explico en mi segundo podcast cómo hago los míos mediante el programa audacity. Muchos otros podcasters también han tratado el tema

Mucha gente tiene problemas para alojar estos archivos tan grandes y que saturan tanto el ancho de banda. Afortunadamente, no es mi caso, pero se están empezando a usar tecnologías de distribución de archivos mediante la red bittorrent. La mayoría de programas especializados, como el que he comentado antes -ipodder- permiten bajarlo de forma automática, ya sea de una web o de la red bittorrent

¿Y…?

Bájate el podcast, escúchalo, y si no te gusta, a otra cosa mariposa. Si te pica el gusanillo, aquí hay más en castellano. ¡Ya acabas de descubrir la última moda de internet! ¿A que ha sido fácil?