Google Chrome cuenta con mucho mayor velocidad, así como optimización de cada una de las pestañas creadas de modo que una que tenga mucha carga no afecta a las demás, debido a que cada pestaña es un proceso independiente.
De por si que en la primer versión ya se había comentado de su gran velocidad debido a su motor de javascript, en la segunda versión, se ha detectado mediante pruebas de bench, que aumentó su velocidad en un 30 % aproximadamente.
Algunas de sus nuevas características son que ahora puedes remover los thumbnails de las páginas nuevas, así como esconder los sitios más visitados, de modo que nadie vea que es lo que mas visitas cada que abres una nueva pestaña.
También, ya se tiene listo el modo en pantalla completa, permitiendo ver los sitios de redes sociales o sitios de vídeos con todo el contenido en pantalla completa sin tener que hacer scroll para ver lo que te interesa.
Descarga Google Chrome desde la pagina oficial:
http://www.google.com.ar/chrome
En cuanto a opciones añadidas, en Internet Explorer 8 destacan varias funcionalidades. Por ejemplo los WebSlices, que en lenguaje llano son algo así como añadir a los favoritos "trozos" de páginas web en vez de la página entera, pudiendo consultar ese trozo concreto sin necesidad de cargar la página.
Otra novedad de Internet Explorer 8 son los Aceleradores. Son la forma en la que Microsoft se aproxima a los servicios web tan de moda últimamente, y permiten añadir al menú contextual enlaces relevantes para añadir páginas a tu blog, subir fotos a algún servicio de hospedaje o, en definitiva, añadir cualquier modo de interacción entre páginas.
Internet Explorer 8 dispone de InPrivate, una función con la cual podrás navegar sin dejar huellas. El botón de Sitios sugeridos puede recomendarte páginas similares a la que estás visitando, y SmartScreen te defenderá de páginas maliciosas. Como guinda, el Administrador de extensiones, una novedad de Internet Explorer 8 que facilita mucho la gestión de los nuevos complementos.
Más sólido que nunca y con accesorios muy útiles, Internet Explorer 8 es la respuesta de Microsoft a la tercera guerra de navegadores.
Descarga Internet Explorer 8 desde la pagina oficial:
http://www.microsoft.com/latam/windo...r/default.aspx
Mozilla Firefox es un navegador de Internet, con interfaz gráfica de usuario desarrollado por la Corporación Mozilla y un gran número de voluntarios externos. Firefox, oficialmente abreviado como Fx o fx, y comúnmente como FF, comenzó como un derivado del Mozilla Application Suite, que terminó por reemplazarlo como el producto bandera del proyecto Mozilla, bajo la dirección de la Fundación Mozilla.
Es un navegador Web multiplataforma, que está disponible en versiones para Microsoft Windows y Linux.
Descarga Mozilla Firefox 3.5 desde la pagina oficial:
http://www.mozilla-europe.org/es/firefox
Es un navegador de internet gratuito, bien conocido por su velocidad, soporte
y seguridad. Cuenta con el sistema de pestañas y como dato, ellos fueron unos de los primeros
en utilizarlas y fue uno de los motivos por lo que este explorador se hizo conocido.
Opera se mantiene siempre en constante desarrollo y por eso es uno de los navegadores mas
confiables, en esta nueva versión trae mas caracteristicas:
Ofrece un cliente de email diseñado para optimizar sus requisitos de e-mail a diario. Se llama
Opera Mail y organiza los índices y clases de mensajes.
Descarga Opera 10 desde la pagina oficial:
http://www.opera.com
Safari ha sido diseñado para realzar la navegación, no el navegador. Su marco apenas mide un píxel de ancho y ves la barra de desplazamiento sólo cuando la necesitas. Por omisión, no hay barra de estado, sino un indicador de progreso que gira mientras la página se carga. Encontrarás las pestañas en la parte superior del navegador, en una ventana más amplia todavía para ver los sitios web. Safari, un navegador excepcional, te permite disfrutar de la Red: ya la estés explorando en un Mac, un PC, un iPhone o un iPod touch.
Safari, el primer navegador en ofrecer Internet de verdad para dispositivos móviles, carga las páginas web en el iPhone y el iPod touch como si las vieras en tu ordenador. Es mucho más que una mera versión móvil reducida del original: Safari saca partido de las tecnologías integradas en estos dispositivos Multi-Touch y, cuando ladeas tu iPhone o iPod touch, la página se coloca y ajusta su forma a la ventana, y puedes alejar y acercar la pantalla de un pellizco. Independientemente del dispositivo en que lo utilices, Safari siempre es veloz y fácil de usar.
miércoles, 20 de octubre de 2010
¿porque es mejor chrone que firefox?
Diseño: Sabemos que el minimalismo en las aplicaciones es mucho mejor que colores, botones y demás. Esta es una de las tantas características de Chrome: simple, limpio y con un diseño que fue desarrollado especialmente para ver más la web en sí que con los otros. Al fin y al cabo fueron creados para eso: ver páginas.
Velocidad: No hay con qué darle, el navegador de Google es muchísimo más rápido que el resto. La diferencia a la hora de ejecutarse entre el Internet Explorer y el Firefox es algo realmente increíble.
Uso de memoria: Si bien la diferencia entre Firefox no es tanta, a Internet Explorer también le gana por mucho.
Vida propia: Cada tab en Chrome es una aplicación en sí misma, lo que hará que, si se te llega a colgar una por culpa de una web en particular, solamente tendrás que cerrar esa y listo, el resto de las tabs seguirán funcionando como si nada hubiera pasado.
Sistema de descargas: A diferencia de Internet Explorer y Firefox, Chrome tiene un sistema de descargas mucho mejor porque no te abre una nueva ventana que tienes que chequear constantemente para ver qué porcentaje de archivo ya has bajado, sino que te abre una pequeña barra en la parte inferior del navegador mostrandote todo lo que necesitas saber al respecto.
Búsquedas: Una de las mejores características, por lejos, es la que guarda automáticamente las cajas de búsquedas de cualquiera de las webs que visites. No todos conocen esto, pero poniendo la dirección web en la caja y presionando la tecla tab te permitirá buscar en ese sitio sin siquiera tener que entrar a él. Además no existe, como en el resto de los navegadores, dos barras sino que la única que hay te permite tanto realizar búsquedas como ingresar a sitios.
Sincronización de favoritos: Esta es una nueva opción que se anunció ayer y con la que podrás tener organizados tus bookmarks en cualquier lugar y en cuestión de segundos. Lo único que hay que hacer es sincronizar tus favoritos a través de Chrome y después volver a hacerlo desde la aplicación en otro ordenador.
Estabilidad: No sé por qué motivo (no son los plugins, no uso), pero en las últimas versiones de Firefox el navegador se me empezó a colgar muchísimo más (ni hablemos de esto en relación al Internet Explorer). Esto en Chrome es rarísimo y, como dije anteriormente, si llega a pasar podemos tranquilamente seguir navegando en el resto de las webs porque solamente un tab se romperá.
Página de inicio: a diferencia del Firefox e Internet Explorer, Chrome tiene una página de inicio muchísimo más personalizada que te mostrará los 8 sitios que más visitaste y te permitirá seleccionar las que quieras que se queden ahí para siempre o quitar las que no quieras.
Velocidad: No hay con qué darle, el navegador de Google es muchísimo más rápido que el resto. La diferencia a la hora de ejecutarse entre el Internet Explorer y el Firefox es algo realmente increíble.
Uso de memoria: Si bien la diferencia entre Firefox no es tanta, a Internet Explorer también le gana por mucho.
Vida propia: Cada tab en Chrome es una aplicación en sí misma, lo que hará que, si se te llega a colgar una por culpa de una web en particular, solamente tendrás que cerrar esa y listo, el resto de las tabs seguirán funcionando como si nada hubiera pasado.
Sistema de descargas: A diferencia de Internet Explorer y Firefox, Chrome tiene un sistema de descargas mucho mejor porque no te abre una nueva ventana que tienes que chequear constantemente para ver qué porcentaje de archivo ya has bajado, sino que te abre una pequeña barra en la parte inferior del navegador mostrandote todo lo que necesitas saber al respecto.
Búsquedas: Una de las mejores características, por lejos, es la que guarda automáticamente las cajas de búsquedas de cualquiera de las webs que visites. No todos conocen esto, pero poniendo la dirección web en la caja y presionando la tecla tab te permitirá buscar en ese sitio sin siquiera tener que entrar a él. Además no existe, como en el resto de los navegadores, dos barras sino que la única que hay te permite tanto realizar búsquedas como ingresar a sitios.
Sincronización de favoritos: Esta es una nueva opción que se anunció ayer y con la que podrás tener organizados tus bookmarks en cualquier lugar y en cuestión de segundos. Lo único que hay que hacer es sincronizar tus favoritos a través de Chrome y después volver a hacerlo desde la aplicación en otro ordenador.
Estabilidad: No sé por qué motivo (no son los plugins, no uso), pero en las últimas versiones de Firefox el navegador se me empezó a colgar muchísimo más (ni hablemos de esto en relación al Internet Explorer). Esto en Chrome es rarísimo y, como dije anteriormente, si llega a pasar podemos tranquilamente seguir navegando en el resto de las webs porque solamente un tab se romperá.
Página de inicio: a diferencia del Firefox e Internet Explorer, Chrome tiene una página de inicio muchísimo más personalizada que te mostrará los 8 sitios que más visitaste y te permitirá seleccionar las que quieras que se queden ahí para siempre o quitar las que no quieras.
martes, 19 de octubre de 2010
¡para que sirve telnet?
Telnet es un programa que sirve para conectarse desde un ordenador a otro en cualquier parte de la red. Una vez establecida la comunicación, el terminal se comporta como si estuviera conectado directamente al otro ordenador. Este modo de funcionamiento se conoce como "terminal remoto".
Para utilizar telnet, se ejecuta un programa especial, llamado telnet, en nuestro ordenador. Este programa utiliza la red para conectarse al ordenador especificado. Una vez que se hace la conexión, telnet actúa como un intermediario entre nosotros y el ordenador remoto. Cada vez que se pulsa una tecla en nuestro ordenador, ésta se envía al ordenador remoto. Cada vez que el ordenador remoto produce una respuesta, ésta se envía a nuestro ordenador que la muestra en pantalla.
En terminología telnet, nuestro ordenador se denomina "host local". El otro ordenador, con el que el programa telnet conecta, se denomina "host remoto". Se utilizan estos términos sin importar la distancia a que se encuentran los ordenadores, tanto si están al otro lado del mundo o en la misma habitación.
¿Para qué sirve telnet?
Existen dos formas principales de usar mediante telnet una computadora remota:
Se puede conectar con una computadora en la que se tenga una cuenta de usuario. Para una computadora Unix, por ejemplo, significa que se debe tener un nombre identificador de usuario (login) y una palabra clave (password). Una vez iniciada la sesión, se puede utilizar el ordenador normalmente. De esta forma, es posible ejecutar aplicaciones en el equipo remoto, recibiendo el resultado de su ejecución en la pantalla de nuestro ordenador.
Determinados ordenadores de la red ofrecen cuentas especiales, configuradas para ejecutar aplicaciones especiales, a través de las cuales se accede a bases de datos, catálogos de bibliotecas, juegos interactivos, etc. Hay muchos ordenadores de Internet que ofrecen algún servicio a través de telnet. Estos sistemas están disponibles para cualquier usuario y normalmente no requieren una palabra clave
Para utilizar telnet, se ejecuta un programa especial, llamado telnet, en nuestro ordenador. Este programa utiliza la red para conectarse al ordenador especificado. Una vez que se hace la conexión, telnet actúa como un intermediario entre nosotros y el ordenador remoto. Cada vez que se pulsa una tecla en nuestro ordenador, ésta se envía al ordenador remoto. Cada vez que el ordenador remoto produce una respuesta, ésta se envía a nuestro ordenador que la muestra en pantalla.
En terminología telnet, nuestro ordenador se denomina "host local". El otro ordenador, con el que el programa telnet conecta, se denomina "host remoto". Se utilizan estos términos sin importar la distancia a que se encuentran los ordenadores, tanto si están al otro lado del mundo o en la misma habitación.
¿Para qué sirve telnet?
Existen dos formas principales de usar mediante telnet una computadora remota:
Se puede conectar con una computadora en la que se tenga una cuenta de usuario. Para una computadora Unix, por ejemplo, significa que se debe tener un nombre identificador de usuario (login) y una palabra clave (password). Una vez iniciada la sesión, se puede utilizar el ordenador normalmente. De esta forma, es posible ejecutar aplicaciones en el equipo remoto, recibiendo el resultado de su ejecución en la pantalla de nuestro ordenador.
Determinados ordenadores de la red ofrecen cuentas especiales, configuradas para ejecutar aplicaciones especiales, a través de las cuales se accede a bases de datos, catálogos de bibliotecas, juegos interactivos, etc. Hay muchos ordenadores de Internet que ofrecen algún servicio a través de telnet. Estos sistemas están disponibles para cualquier usuario y normalmente no requieren una palabra clave
photoshop
en la que de una manera gráfica, amena, divertida, elegante y un tanto retro, nos muestran la evolución que ha tenido Photoshop desde sus comienzos en 1990 (versión 1) hasta 2010 (versión 12). ¡Qué recuerdos!
El gráfico indica el año de lanzamiento y presenta al lado de cada una de las versiones las características que se han ido implementando en el programa con respecto de la versión anterior hasta llegar a las últimas, donde podemos apreciar que el aumento de potencialidades es verdaderamente notable.Asimismo podemos observar que no todas las versiones se lanzaron para Mac y PC (las dos primeras eran exclusivas de Mac).
Comprobamos también la pertenencia de las últimas versiones a las distintas Creative Suites.
Y, como dato curioso, también se muestran los nombres en clave de cada una de ellas.
bluetooth
Bluetooth es una especificación industrial para Redes Inalámbricas de Área Personal (WPANs) que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia en la banda ISM de los 2,4 GHz. Los principales objetivos que se pretenden conseguir con esta norma son:
Facilitar las comunicaciones entre equipos móviles y fijos.
Eliminar cables y conectores entre éstos.
Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre equipos personales.
Los dispositivos que con mayor frecuencia utilizan esta tecnología pertenecen a sectores de las telecomunicaciones y la informática personal, como PDA, teléfonos móviles,
Facilitar las comunicaciones entre equipos móviles y fijos.
Eliminar cables y conectores entre éstos.
Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre equipos personales.
Los dispositivos que con mayor frecuencia utilizan esta tecnología pertenecen a sectores de las telecomunicaciones y la informática personal, como PDA, teléfonos móviles,
microbloggin
Estas actualizaciones se muestran en la página de perfil del usuario, y son también enviadas de forma inmediata a otros usuarios que han elegido la opción de recibirlas. El usuario origen puede restringir el envío de estos mensajes sólo a miembros de su círculo de amigos, o permitir su acceso a todos los usuarios, que es la opción por defecto.
Un servicio de microblogging es una aplicación web que permite insertar mensajes reducidos, a modo de posts de un blog, con un límite de alrededor de 144 caracteres -el tamaño aproximado de una página de SMS- y con una elevada frecuencia de actualización.
Sin embargo, la singularidad del microblogging no se desprende de la obviedad de su denominación, sino de su condición multi-dispositivo. Mucho más que un blog en tamaño reducido, ya que la forma de postear no sólo es vía web, sino simultáneamente, vía email, telefonía móvil y mensajería instantánea.
De tal modo, puede definirse el microblogging como el fenómeno que se produce al combinar un blog, una red social y acceso al mismo desde dispositivos móviles. El concepto que tiene algo más de un año de existencia, estalló en los últimos meses de la mano de Twitter, el pionero y más popular servidor de microblogging, que se mantiene en los puestos más altos de Technorati.
Un servicio de microblogging es una aplicación web que permite insertar mensajes reducidos, a modo de posts de un blog, con un límite de alrededor de 144 caracteres -el tamaño aproximado de una página de SMS- y con una elevada frecuencia de actualización.
Sin embargo, la singularidad del microblogging no se desprende de la obviedad de su denominación, sino de su condición multi-dispositivo. Mucho más que un blog en tamaño reducido, ya que la forma de postear no sólo es vía web, sino simultáneamente, vía email, telefonía móvil y mensajería instantánea.
De tal modo, puede definirse el microblogging como el fenómeno que se produce al combinar un blog, una red social y acceso al mismo desde dispositivos móviles. El concepto que tiene algo más de un año de existencia, estalló en los últimos meses de la mano de Twitter, el pionero y más popular servidor de microblogging, que se mantiene en los puestos más altos de Technorati.
acelorametro
El acelerómetro de tipo de compresión como se muestra en el diagrama fue el primer tipo a ser desarollado. Por lo general se prefiere el acelerómetro del tipo de cizallamiento, configurado de tal manera que el elemento activo esta sujeto a fuerzas de cizallamiento.
También hay otros tipos de diseños para acelerómetros.
Se puede considerar al acelerómetro piezo electrico como el transductor estandard para medición de vibración en máquinas. Se produce en varias configuraciones, pero la ilustración del tipo a compresión sirve para describir el principio de la operación. La masa sismica está sujetada a la base con un perno axial, que se apoya en un resorte circular. El elemento piezo electrico está ajustado entre la base y la masa. Cuando una materia está sujeta a una fuerza, se genera una carga eléctrica entre sus superficies. Hay muchas materias de este tipo. Cuartzo se usa más. También hay materias piezo eléctricos sintéticos que funcionan bien y en algunos casos son capaces de funcionar a temperaturas más altas que el cuartzo lo puede hacer. Si se incrementa la temperatura de un material piezo eléctrico, se va llegar al llamado "punto curie" o " temperatura curie" y se pierde la propiedad piezo eléctrica. Una vez que esto pasa, el transductor está defectuoso y no se puede reparar.
Cuando se mueve el acelerómetro en la dirección arriba abajo, la fuerza que se requiere para mover la masa sismica esta soportada por el elemento activo. Según la segunda ley de Newton, esa fuerza es proporcional a la aceleración de la masa. La fuerza sobre el cristal produce la señal de salida, que por consecuente es proporcional a la aceleración del transductor. Los acelerómetros son lineales en el sentido de la amplitud, lo que quiere decir que tienen un rango dinámico muy largo. Los niveles más bajos de aceleración que puede detectar son determinado unicamente por el ruido electrónico del sistema electrónico, y el lìmite de los niveles más altos es la destrucción del mismo elemento piezo electrico. Este rango de niveles de aceleración puede abarcar un rango de amplitudes de alrededor de 10 , lo que es igual a 160 dB. Ningún otro transductor puede igualar esto.
El acelerómetro piezo electrico está muy estable sobre largos periodos. Mantendrá su calibración si no se le maltrata. Las dos maneras de que se puede dañar un acelerómetro son la exposición a un calor excesivo y la caida en una superficia dura. Si se cae de una altura de mas de un par de pies, en un piso de concreto, o en una cubierta de acero, se debe volver a calibrar el acelerómetro para asegurarse que el cristal no se cuarteó. Una pequeña cuarteadura causará una reducción en la sensibilidad y también afectará de manera importante a la resonancia y a la respuesta de frecuencia. Es una buena idea calibrar los acelerómetros una vez al año, si estan en servicio con colectores de datos portatiles.
También hay otros tipos de diseños para acelerómetros.
Se puede considerar al acelerómetro piezo electrico como el transductor estandard para medición de vibración en máquinas. Se produce en varias configuraciones, pero la ilustración del tipo a compresión sirve para describir el principio de la operación. La masa sismica está sujetada a la base con un perno axial, que se apoya en un resorte circular. El elemento piezo electrico está ajustado entre la base y la masa. Cuando una materia está sujeta a una fuerza, se genera una carga eléctrica entre sus superficies. Hay muchas materias de este tipo. Cuartzo se usa más. También hay materias piezo eléctricos sintéticos que funcionan bien y en algunos casos son capaces de funcionar a temperaturas más altas que el cuartzo lo puede hacer. Si se incrementa la temperatura de un material piezo eléctrico, se va llegar al llamado "punto curie" o " temperatura curie" y se pierde la propiedad piezo eléctrica. Una vez que esto pasa, el transductor está defectuoso y no se puede reparar.
Cuando se mueve el acelerómetro en la dirección arriba abajo, la fuerza que se requiere para mover la masa sismica esta soportada por el elemento activo. Según la segunda ley de Newton, esa fuerza es proporcional a la aceleración de la masa. La fuerza sobre el cristal produce la señal de salida, que por consecuente es proporcional a la aceleración del transductor. Los acelerómetros son lineales en el sentido de la amplitud, lo que quiere decir que tienen un rango dinámico muy largo. Los niveles más bajos de aceleración que puede detectar son determinado unicamente por el ruido electrónico del sistema electrónico, y el lìmite de los niveles más altos es la destrucción del mismo elemento piezo electrico. Este rango de niveles de aceleración puede abarcar un rango de amplitudes de alrededor de 10 , lo que es igual a 160 dB. Ningún otro transductor puede igualar esto.
El acelerómetro piezo electrico está muy estable sobre largos periodos. Mantendrá su calibración si no se le maltrata. Las dos maneras de que se puede dañar un acelerómetro son la exposición a un calor excesivo y la caida en una superficia dura. Si se cae de una altura de mas de un par de pies, en un piso de concreto, o en una cubierta de acero, se debe volver a calibrar el acelerómetro para asegurarse que el cristal no se cuarteó. Una pequeña cuarteadura causará una reducción en la sensibilidad y también afectará de manera importante a la resonancia y a la respuesta de frecuencia. Es una buena idea calibrar los acelerómetros una vez al año, si estan en servicio con colectores de datos portatiles.
lluvia
La lluvia se produce por la condensación del vapor de agua que contienen las nubes provocada por los núcleos de condensación.
La lluvia es una precipitación de agua en forma de gotas Cuando éstas alcanzan un diámetro superior a los 0,5 m m. caen a la tierra por la gravedad a una velocidad superior a los 3 m /seg. En estos momentos se produce la lluvia.
El agua puede volver a la tierra , además, en forma de nieve o granizo.
La cantidad de lluvia que cae en un lugar se mide por los“PLUVIOMETROS”. La medición se expresa en milímetros de agua y equivale al agua que se acumularía en una superficie horizontal e impermeable de 1 metro cuadrado durante el tiempo que dure la precipitación.
La lluvia, en su caída, se distribuye de forma irregular: parte aprovechará para las plantas, parte aumentará los caudales de los ríos por medio de los barrancos y escorrentías que, a su vez aumentaran las reservas de pantanos y embalses y la mayor parte se infiltrará a través del suelo, y discurriendo por zonas de texturas mas o menos porosas formará corrientes subterráneas que irán a parar o bien a depósitos naturales con paredes y fondos arcillosos y que constituirán los llamados yacimientos o pozos naturales, o acabarán desembocando en el mar.
La lluvia es una precipitación de agua en forma de gotas Cuando éstas alcanzan un diámetro superior a los 0,5 m m. caen a la tierra por la gravedad a una velocidad superior a los 3 m /seg. En estos momentos se produce la lluvia.
El agua puede volver a la tierra , además, en forma de nieve o granizo.
La cantidad de lluvia que cae en un lugar se mide por los“PLUVIOMETROS”. La medición se expresa en milímetros de agua y equivale al agua que se acumularía en una superficie horizontal e impermeable de 1 metro cuadrado durante el tiempo que dure la precipitación.
La lluvia, en su caída, se distribuye de forma irregular: parte aprovechará para las plantas, parte aumentará los caudales de los ríos por medio de los barrancos y escorrentías que, a su vez aumentaran las reservas de pantanos y embalses y la mayor parte se infiltrará a través del suelo, y discurriendo por zonas de texturas mas o menos porosas formará corrientes subterráneas que irán a parar o bien a depósitos naturales con paredes y fondos arcillosos y que constituirán los llamados yacimientos o pozos naturales, o acabarán desembocando en el mar.
lunes, 18 de octubre de 2010
particula
Las partículas elementales son los constituyentes elementales de la materia, más precisamente son partículas que no están constituidas por partículas más pequeñas ni se conoce que tengan estructura interna.1
Originalmente el término partícula elemental se usó para toda partícula subatómica como los protones y neutrones, los electrones y otros tipos de partículas exóticas que sólo pueden encontrarse en los rayos cósmicos o en los grandes aceleradores de partículas, como los piones o los muones. Sin embargo, a partir de los años 1970 quedó claro que los protones y neutrones son partículas compuestas de otras partículas más simples. Actualmente el nombre partícula elemental se usa para las partículas, que hasta donde se sabe, no están formadas por partículas más simples en interacción.2Los neutrones, protones y otras partículas compuestas como los hadrones y los mesones están formados por constituyentes más simples llamados quarks y antiquarks y "nubes" de gluones que los mantienen unidos.
La lista de partículas subatómicas que actualmente se conocen consta de centenares de estas partículas, situación que sorprendió a los físicos, hasta que fueron capaces de comprender que muchas de esas partículas realmente no eran elementales sino compuestas de elementos más simples llamados quarks y leptones que interaccionan entre ellos mediante el intercambio de bosones.
El término partícula elemental se sigue usando para cualquier partícula que esté por debajo del nivel atómico. Por ejemplo, es usual hablar de protones y neutrones como partículas elementales aun cuando hoy sabemos que no son "elementales" en sentido estricto dado que tienen estructura ya que el modelo estándar analiza a estas partículas en términos de constituyentes aún más elementales llamados quarks que no pueden encontrarse libres en la naturaleza.
Originalmente el término partícula elemental se usó para toda partícula subatómica como los protones y neutrones, los electrones y otros tipos de partículas exóticas que sólo pueden encontrarse en los rayos cósmicos o en los grandes aceleradores de partículas, como los piones o los muones. Sin embargo, a partir de los años 1970 quedó claro que los protones y neutrones son partículas compuestas de otras partículas más simples. Actualmente el nombre partícula elemental se usa para las partículas, que hasta donde se sabe, no están formadas por partículas más simples en interacción.2Los neutrones, protones y otras partículas compuestas como los hadrones y los mesones están formados por constituyentes más simples llamados quarks y antiquarks y "nubes" de gluones que los mantienen unidos.
La lista de partículas subatómicas que actualmente se conocen consta de centenares de estas partículas, situación que sorprendió a los físicos, hasta que fueron capaces de comprender que muchas de esas partículas realmente no eran elementales sino compuestas de elementos más simples llamados quarks y leptones que interaccionan entre ellos mediante el intercambio de bosones.
El término partícula elemental se sigue usando para cualquier partícula que esté por debajo del nivel atómico. Por ejemplo, es usual hablar de protones y neutrones como partículas elementales aun cuando hoy sabemos que no son "elementales" en sentido estricto dado que tienen estructura ya que el modelo estándar analiza a estas partículas en términos de constituyentes aún más elementales llamados quarks que no pueden encontrarse libres en la naturaleza.
granizo
El granizo o pedrisco es un tipo de precipitación que consiste en partículas irregulares de hielo. El granizo se produce en tormentas intensas en las que se producen gotas de agua sobreenfriadas, es decir, aún líquidas pero a temperaturas por debajo de su punto normal de congelación (0 °C), y ocurre tanto en verano como en invierno, aunque el caso se da más cuando está presente la canícula, días del año en los que es más fuerte el calor.
El agua sobreenfriada continúa en ese estado debido a la necesidad de una semilla sólida inicial para iniciar el proceso de cristalización. Cuando estas gotas de agua chocan en la nube con otras partículas heladas o granos de polvo pueden cristalizar sin dificultad congelándose rápidamente. En las tormentas más intensas se puede producir precipitación helada en forma de granizo especialmente grande cuando éste se forma en el seno de fuertes corrientes ascendentes. En este caso la bola de granizo puede permanecer más tiempo en la atmósfera disponiendo de una mayor capacidad de crecimiento. Cuando el empuje hacia arriba cesa o el granizo ha alcanzado un tamaño elevado el aire ya no puede aguantar el peso de la bola de granizo y ésta acaba cayendo.
El agua sobreenfriada continúa en ese estado debido a la necesidad de una semilla sólida inicial para iniciar el proceso de cristalización. Cuando estas gotas de agua chocan en la nube con otras partículas heladas o granos de polvo pueden cristalizar sin dificultad congelándose rápidamente. En las tormentas más intensas se puede producir precipitación helada en forma de granizo especialmente grande cuando éste se forma en el seno de fuertes corrientes ascendentes. En este caso la bola de granizo puede permanecer más tiempo en la atmósfera disponiendo de una mayor capacidad de crecimiento. Cuando el empuje hacia arriba cesa o el granizo ha alcanzado un tamaño elevado el aire ya no puede aguantar el peso de la bola de granizo y ésta acaba cayendo.
aurora boreal
El hermoso fenómeno de luminiscencia atmosférica conocido como aurora boreal se produce cuando una eyección de masa solar choca con los polos norte y sur de la magnetosfera terrestre. Como consecuencia surge la aurora, una luz difusa proyectada en la ionosfera terrestre, compuesta de partículas protónicas que difunden el color.
Se le denomina boreal cuando se observa este fenómeno en el hemisferio norte y aurora austral cuando es observado en el hemisferio sur.
Tanto la aurora austral como la boreal pueden generar colores diversos, dependiendo de la oblicuidad con que las particulas solares choquen contra un polo.
El Sol constantemente emite todo tipo de partículas, algunas simplemente atravesarán la atmosfera y chocarán contra la Tierra, pero otras se ven afectadas por el campo magnético terrestre, de forma que las cargadas positivamente tomarán una dirección y las cargadas negativamente otra.
Debido a la disposición del campo magnético terrestre ambos flujos de partículas llegarán hasta los polos, para finalmente chocar contra la magnetosfera, produciendo el hermoso fenómeno lumínico que conocemos como aurora.
Debido a la duplicidad que se produce entre partículas positivas y negativas, la misma luminiscencia que se produce en el Polo Norte (boreal) se produce en el Polo Sur (austral), además al mismo tiempo.
Se le denomina boreal cuando se observa este fenómeno en el hemisferio norte y aurora austral cuando es observado en el hemisferio sur.
Tanto la aurora austral como la boreal pueden generar colores diversos, dependiendo de la oblicuidad con que las particulas solares choquen contra un polo.
El Sol constantemente emite todo tipo de partículas, algunas simplemente atravesarán la atmosfera y chocarán contra la Tierra, pero otras se ven afectadas por el campo magnético terrestre, de forma que las cargadas positivamente tomarán una dirección y las cargadas negativamente otra.
Debido a la disposición del campo magnético terrestre ambos flujos de partículas llegarán hasta los polos, para finalmente chocar contra la magnetosfera, produciendo el hermoso fenómeno lumínico que conocemos como aurora.
Debido a la duplicidad que se produce entre partículas positivas y negativas, la misma luminiscencia que se produce en el Polo Norte (boreal) se produce en el Polo Sur (austral), además al mismo tiempo.
traslacion
La traslación de la Tierra es el movimiento de este planeta alrededor del Sol,es la estrella central del Sistema Solar. La Tierra describe a su alrededor una órbita elíptica.
Si se toma como referencia la posición de una estrella, la Tierra completa una vuelta en un año sidéreo cuya duración es de 365 días, 6 horas, 9 minutos y 9,54 segundos. El año sidéreo es de poca importancia práctica. Para las actividades terrestres tiene mayor importancia la medición del tiempo según las estaciones. El año bisiesto tiene 1 día extra y se presenta en febrero
Tomando como referencia el lapso transcurrido entre un inicio de la primavera y otro, cuando el Sol se encuentra en el punto vernal, el llamado año trópico dura 365 días,5 horas ,48 minutos y 46 segundos. Este es el año utilizado para realizar los calendarios.
La órbita tiene un perímetro de 930 millones de kilómetros, con una distancia promedio al Sol de 150.000.000 km, distancia que se conoce como Unidad Astronómica (U.A.). De esto se deduce que la Tierra se desplaza en el espacio a una velocidad de 106.000 km por hora ó 29,5 km por segundo.
El hecho de que la órbita sea elíptica hace que la Tierra en algún momento esté en el lugar de la órbita más alejado del Sol, denominado afelio, hecho que se produce en Julio. En ese punto la distancia al Sol es de 151.800.000 km. De manera análoga, el punto de la órbita más cercano al Sol se denomina perihelio y ocurre en Enero,
Si se toma como referencia la posición de una estrella, la Tierra completa una vuelta en un año sidéreo cuya duración es de 365 días, 6 horas, 9 minutos y 9,54 segundos. El año sidéreo es de poca importancia práctica. Para las actividades terrestres tiene mayor importancia la medición del tiempo según las estaciones. El año bisiesto tiene 1 día extra y se presenta en febrero
Tomando como referencia el lapso transcurrido entre un inicio de la primavera y otro, cuando el Sol se encuentra en el punto vernal, el llamado año trópico dura 365 días,5 horas ,48 minutos y 46 segundos. Este es el año utilizado para realizar los calendarios.
La órbita tiene un perímetro de 930 millones de kilómetros, con una distancia promedio al Sol de 150.000.000 km, distancia que se conoce como Unidad Astronómica (U.A.). De esto se deduce que la Tierra se desplaza en el espacio a una velocidad de 106.000 km por hora ó 29,5 km por segundo.
El hecho de que la órbita sea elíptica hace que la Tierra en algún momento esté en el lugar de la órbita más alejado del Sol, denominado afelio, hecho que se produce en Julio. En ese punto la distancia al Sol es de 151.800.000 km. De manera análoga, el punto de la órbita más cercano al Sol se denomina perihelio y ocurre en Enero,
rotacion
Rotación es el movimiento de cambio de orientación de un sólido extenso de forma que, dado un punto cualquiera del mismo, este permanece a una distancia constante del eje de rotación.
Una rotación pura de un cuerpo queda representada mediante el vector velocidad angular, que es un vector de carácter deslizante, situado sobre el eje de rotación.La velocidad angular de rotación está relacionada con el momento angular. Para producir una variación en el momento angular es necesario actuar sobre el sistema con fuerzas que ejerzan un momento de fuerza. La relación entre el momento de las fuerzas que actúan sobre el sólido y la aceleración angular se conoce como momento de inercia (I) y representa la inercia o resistencia del sólido a alterar su movimiento de rotación.
Para analizar el comportamiento cinemático de un sólido rígido debemos partir de la idea de que un ángulo θ define la posición instantánea de cualquier partícula contenida en el sólido rígido (CR); este ángulo se mide desde un plano perpendicular al eje de rotación del CR.
Si la posición queda completamente definida por la coordenada angular θ, entonces la velocidad del CR se podrá expresar como:
Mientras que la aceleración quedaría definida por
Una rotación pura de un cuerpo queda representada mediante el vector velocidad angular, que es un vector de carácter deslizante, situado sobre el eje de rotación.La velocidad angular de rotación está relacionada con el momento angular. Para producir una variación en el momento angular es necesario actuar sobre el sistema con fuerzas que ejerzan un momento de fuerza. La relación entre el momento de las fuerzas que actúan sobre el sólido y la aceleración angular se conoce como momento de inercia (I) y representa la inercia o resistencia del sólido a alterar su movimiento de rotación.
Para analizar el comportamiento cinemático de un sólido rígido debemos partir de la idea de que un ángulo θ define la posición instantánea de cualquier partícula contenida en el sólido rígido (CR); este ángulo se mide desde un plano perpendicular al eje de rotación del CR.
Si la posición queda completamente definida por la coordenada angular θ, entonces la velocidad del CR se podrá expresar como:
Mientras que la aceleración quedaría definida por
- :Un ejemplo de revolución es el de la Tierra alrededor de del Sol, con un periodo de revolución de un año.
cambio climatico
l Cambio Climático Global, una modificación que le es atribuido directa o indirectamente a las actividades humanas que alteran la composición global atmosférica, agregada a la variabilidad climática natural observada en periodos comparables de tiempo (EEI, 1997).
La IPCC (Panel Internacional sobre Cambio Climático), un panel de 2500 científicos de primera línea, acordaron que "un cambio discernible de influencia humana sobre el clima global ya se puede detectar entre las muchas variables naturales del clima". Según el panel, la temperatura de la superficie terrestre ha aumentado aproximadamente 0.6°C en el último siglo. Las emisiones de dióxido de carbono por quema de combustibles, han aumentado a 6.25 mil millones de toneladas en 1996, un nuevo récord. Por otro lado, 1996 fue uno de los cinco años más calurosos que existe en los registros (desde 1866). Por otro lado se estima que los daños relacionados con desastres climáticos llegaron a 60 mil millones de US$ en 1996, otro nuevo récord (GCCIP).De acuerdo a la Panel Internacional Sobre Cambio Climático, una duplicación de los gases de invernadero incrementarían la temperatura terrestre entre 1 y 3.5°C . Aunque no parezca mucho, es equivalente a volver a la última glaciación, pero en la dirección inversa. Por otro lado, el aumento de temperatura sería el más rápido en los últimos 100.000 años, haciendo muy difícil que los ecosistemas del mundo se adapten.
El principal cambio climático a la fecha ha sido en la atmósfera, Hemos cambiado y continuamos cambiando, el balance de gases que forman la atmósfera. Esto es especialmente notorio en gases invernadero claves como el CO2, Metano (CH4) y óxido nitroso (N2O). Estos gases naturales son menos de una décima de un 1% del total de gases de la atmósfera, pero son vitales pues actúan como una "frazada" alrededor de la Tierra. Sin esta capa la temperatura mundial sería 30°C más baja.
La IPCC (Panel Internacional sobre Cambio Climático), un panel de 2500 científicos de primera línea, acordaron que "un cambio discernible de influencia humana sobre el clima global ya se puede detectar entre las muchas variables naturales del clima". Según el panel, la temperatura de la superficie terrestre ha aumentado aproximadamente 0.6°C en el último siglo. Las emisiones de dióxido de carbono por quema de combustibles, han aumentado a 6.25 mil millones de toneladas en 1996, un nuevo récord. Por otro lado, 1996 fue uno de los cinco años más calurosos que existe en los registros (desde 1866). Por otro lado se estima que los daños relacionados con desastres climáticos llegaron a 60 mil millones de US$ en 1996, otro nuevo récord (GCCIP).De acuerdo a la Panel Internacional Sobre Cambio Climático, una duplicación de los gases de invernadero incrementarían la temperatura terrestre entre 1 y 3.5°C . Aunque no parezca mucho, es equivalente a volver a la última glaciación, pero en la dirección inversa. Por otro lado, el aumento de temperatura sería el más rápido en los últimos 100.000 años, haciendo muy difícil que los ecosistemas del mundo se adapten.
El principal cambio climático a la fecha ha sido en la atmósfera, Hemos cambiado y continuamos cambiando, el balance de gases que forman la atmósfera. Esto es especialmente notorio en gases invernadero claves como el CO2, Metano (CH4) y óxido nitroso (N2O). Estos gases naturales son menos de una décima de un 1% del total de gases de la atmósfera, pero son vitales pues actúan como una "frazada" alrededor de la Tierra. Sin esta capa la temperatura mundial sería 30°C más baja.
tsunami
Un TSUNAM es una ola o serie de olas que se producen en una masa de agua al ser empujada violentamente por una fuerza que la desplaza verticalmente. Este término fue adoptado en un congreso de 1963.
Terremotos, volcanes, meteoritos, derrumbes costeros o subterráneos e incluso explosiones de gran magnitud pueden generar un TSUNAMI.
Antiguamente se les llamaba “marejadas”, “maremotos” u “ondas sísmicas marinas”, pero estos términos han ido quedando obsoletos, ya que no describen adecuadamente el fenómeno. Los dos primeros implican movimientos de marea, que es un fenómeno diferente y que tiene que ver con un desbalance oceánico provocado por la atracción gravitacional ejercida por los planetas, el sol y especialmente la luna. Las ondas sísmicas, por otra parte, implican un terremoto y ya vimos que hay varias otras causas de un TSUNAMI.
Un tsunami generalmente no es sentido por las naves en alta mar (las olas en alta mar son pequeñas) ni puede visualizarse desde la altura de un avión volando sobre el mar.
Como puede suponerse, los tsunamis pueden ser ocasionados por terremotos locales o por terremotos ocurridos a distancia. De ambos, los primeros son los que producen daños más devastadores debido a que no se alcanza a contar con tiempo suficiente para evacuar la zona (generalmente se producen entre 10 y 20 minutos después del terremoto) y a que el terremoto por sí mismo genera terror y caos que hacen muy difícil organizar una evacuación ordenada.
Terremotos, volcanes, meteoritos, derrumbes costeros o subterráneos e incluso explosiones de gran magnitud pueden generar un TSUNAMI.
Antiguamente se les llamaba “marejadas”, “maremotos” u “ondas sísmicas marinas”, pero estos términos han ido quedando obsoletos, ya que no describen adecuadamente el fenómeno. Los dos primeros implican movimientos de marea, que es un fenómeno diferente y que tiene que ver con un desbalance oceánico provocado por la atracción gravitacional ejercida por los planetas, el sol y especialmente la luna. Las ondas sísmicas, por otra parte, implican un terremoto y ya vimos que hay varias otras causas de un TSUNAMI.
Un tsunami generalmente no es sentido por las naves en alta mar (las olas en alta mar son pequeñas) ni puede visualizarse desde la altura de un avión volando sobre el mar.
Como puede suponerse, los tsunamis pueden ser ocasionados por terremotos locales o por terremotos ocurridos a distancia. De ambos, los primeros son los que producen daños más devastadores debido a que no se alcanza a contar con tiempo suficiente para evacuar la zona (generalmente se producen entre 10 y 20 minutos después del terremoto) y a que el terremoto por sí mismo genera terror y caos que hacen muy difícil organizar una evacuación ordenada.
agua
El agua (del latín aqua) es una sustancia cuya molécula está formada por dos átomos de hidrógeno y uno de oxígeno (H2O). Es esencial para la supervivencia de todas las formas conocidas de vida. El termino agua, generalmente, se refiere a la sustancia en su estado líquido, pero la misma puede hallarse en su forma sólida llamada hielo, y en forma gaseosa denominada vapor. El agua cubre el 71% de la superficie de la corteza terrestre.2 Se localiza principalmente en los océanos donde se concentra el 96,5% del agua total, los glaciares y casquetes polares poseen el 1,74%, los depósitos subterráneos (acuíferos), los permafrost y los glaciares continentales suponen el 1,72% y el restante 0,04% se reparte en orden decreciente entre lagos, humedad del suelo, atmósfera, embalses, ríos y seres vivos.3 El agua es un elemento común del sistema solar, hecho confirmado en descubrimientos recientes. Puede ser encontrada, principalmente, en forma de hielo; de hecho, es el material base de los cometas y el vapor que compone sus colas.Se estima que aproximadamente el 70% del agua dulce es usada para agricultura.5 El agua en la industria absorbe una media del 20% del consumo mundial, empleándose en tareas de refrigeración, transporte y como disolvente de una gran variedad de sustancias químicas. El consumo doméstico absorbe el 10% restante.6
atmofera
La atmósfera es la envoltura gaseosa que rodea a la Tierra. Comenzó a formarse hace unos 4600 millones de años con el nacimiento de la Tierra. La mayor parte de la atmósfera primitiva se perdería en el espacio, pero nuevos gases y vapor de agua se fueron liberando de las rocas que forman nuestro planeta.
La atmósfera de las primeras épocas de la historia de la Tierra estaría formada por vapor de agua, dióxido de carbono(CO2) y nitrógeno, junto a muy pequeñas cantidades de hidrógeno (H2) y monóxido de carbono pero con ausencia de oxígeno. Era una atmósfera ligeramente reductora hasta que la actividad fotosintética de los seres vivos introdujo oxígeno y ozono (a partir de hace unos 2 500 o 2000 millones de años) y hace unos 1000 millones de años la atmósfera llegó a tener una composición similar a la actual.
También ahora los seres vivos siguen desempeñando un papel fundamental en el funcionamiento de la atmósfera. Las plantas y otros organismos fotosintéticos toman CO2 del aire y devuelven O2, mientras que la respiración de los animales y la quema de bosques o combustibles realiza el efecto contrario: retira O2 y devuelve CO2 a la atmósfera.
La atmósfera de las primeras épocas de la historia de la Tierra estaría formada por vapor de agua, dióxido de carbono(CO2) y nitrógeno, junto a muy pequeñas cantidades de hidrógeno (H2) y monóxido de carbono pero con ausencia de oxígeno. Era una atmósfera ligeramente reductora hasta que la actividad fotosintética de los seres vivos introdujo oxígeno y ozono (a partir de hace unos 2 500 o 2000 millones de años) y hace unos 1000 millones de años la atmósfera llegó a tener una composición similar a la actual.
También ahora los seres vivos siguen desempeñando un papel fundamental en el funcionamiento de la atmósfera. Las plantas y otros organismos fotosintéticos toman CO2 del aire y devuelven O2, mientras que la respiración de los animales y la quema de bosques o combustibles realiza el efecto contrario: retira O2 y devuelve CO2 a la atmósfera.
que es ética
La definición de ética la muestra a ésta como una rama de la filosofía, es considerada una ciencia normativa ya que se ocupa de las normas de la conducta humana distinguiéndose así de las ciencias formales y empíricas. Las ciencias empíricas sociales, chocan en algunos puntos con los intereses de la ética debido a que ambas estudian la conducta social; las primeras procuran determinar la relación entre los principios éticos particulares y la conducta social. Los filósofos han tratado de estudiar la conducta de los individuos minuciosamente y llegaron a la conclusión de que existen conductas buenas como malas; para levar a cabo este estudio se basaron en dos principios, el primero implica un valor final y el segundo es un valor utilizado para alcanzar un fin.
En la definición de ética se establece que existen cuatro modelos de conducta principales: la felicidad o placer, el deber, la virtud y la perfección; la autoridad invocada para una buena conducta es la voluntad de una deidad o el dominio de la razón. Cuando la voluntad de un dios es la autoridad, es entonces donde se deben obedecer los mandamientos divinos y textos bíblicos; si el modelo de la autoridad es la razón, la conducta moral resultará del pensamiento racional.
En la definición de ética se establece que existen cuatro modelos de conducta principales: la felicidad o placer, el deber, la virtud y la perfección; la autoridad invocada para una buena conducta es la voluntad de una deidad o el dominio de la razón. Cuando la voluntad de un dios es la autoridad, es entonces donde se deben obedecer los mandamientos divinos y textos bíblicos; si el modelo de la autoridad es la razón, la conducta moral resultará del pensamiento racional.
viernes, 15 de octubre de 2010
lluvia acida
La lluvia ácida es una de las consecuencias de la contaminación del aire. Cuando cualquier tipo de combustible se quema, diferentes productos químicos se liberan al aire. El humo de las fábricas, el que proviene de un incendio o el que genera un automovil, no sólo contiene partículas de color gris (fácilmente visibles), sino que ademas poseen una gran cantidad de gases invisibles altamente perjudiciales para nuestro medio ambiente.
Centrales eléctricas, fábricas, maquinarias y coches "queman” combustibles, por lo tanto, todos son productores de gases contaminantes. Algunos de estos gases (en especial los óxidos de nitrógeno y el dióxido de azufre) reaccionan al contacto con la humedad del aire y se transforman en ácido sulfúrico, ácido nítrico y ácido clorhídrico . Estos acidos se depositan en las nubes. La lluvia que producen estas nubes, que contienen pequeñas partículas de acido, se conoce con el nombre de "lluvia ácida".
Centrales eléctricas, fábricas, maquinarias y coches "queman” combustibles, por lo tanto, todos son productores de gases contaminantes. Algunos de estos gases (en especial los óxidos de nitrógeno y el dióxido de azufre) reaccionan al contacto con la humedad del aire y se transforman en ácido sulfúrico, ácido nítrico y ácido clorhídrico . Estos acidos se depositan en las nubes. La lluvia que producen estas nubes, que contienen pequeñas partículas de acido, se conoce con el nombre de "lluvia ácida".
nucleo
Es un orgánulo típico de células eucarióticas. En las células procarióticas se denomina nucleoide a la región citoplasmática en la que se encuentra el ADN dispuesto en una sola molécula circular.
Forma: generalmente esférica, puede ser lenticular o elipsoide, en algunos casos lobulado (Fig. 9.1).
Tamaño: generalmente entre 5-25 µm, visible con microscopio óptico. En hongos hay núcleos de 0.5 µm, visibles solamente con microscopio electrónico. En las ovocélulas de Cycas y coníferas alcanza más de 500 µm: 0.6 mm, es decir que resulta visible a simple vista.
Posición: es característica para cada tipo celular, en células embrionales ocupa el centro, en células adultas generalmente está desplazado hacia un costado porque el centro está ocupado por una o más vacuolas.
Número: la mayoría de las células de plantas superiores son uninucleadas, aunque ciertas células especializadas pueden ser multinucleadas: cenocitos, durante un período de su existencia o toda la vida (fibras liberianas, tubos laticíferos, endosperma).
Constancia: normalmente todas las células vivas tienen núcleo, aunque hay excepciones. Los tubos cribosos del floema carecen de núcleo a la madurez, sin embargo reciben la influencia del núcleo de las células acompañantes.
Forma: generalmente esférica, puede ser lenticular o elipsoide, en algunos casos lobulado (Fig. 9.1).
Tamaño: generalmente entre 5-25 µm, visible con microscopio óptico. En hongos hay núcleos de 0.5 µm, visibles solamente con microscopio electrónico. En las ovocélulas de Cycas y coníferas alcanza más de 500 µm: 0.6 mm, es decir que resulta visible a simple vista.
Posición: es característica para cada tipo celular, en células embrionales ocupa el centro, en células adultas generalmente está desplazado hacia un costado porque el centro está ocupado por una o más vacuolas.
Número: la mayoría de las células de plantas superiores son uninucleadas, aunque ciertas células especializadas pueden ser multinucleadas: cenocitos, durante un período de su existencia o toda la vida (fibras liberianas, tubos laticíferos, endosperma).
Constancia: normalmente todas las células vivas tienen núcleo, aunque hay excepciones. Los tubos cribosos del floema carecen de núcleo a la madurez, sin embargo reciben la influencia del núcleo de las células acompañantes.
aerosoles en la atmofera
El término aerosol es utilizado científicamente para designar una suspensión de sólidos finos o pequeñas gotas en un gas. El humo, en contraste, es una suspensión de partículas sólidas en un gas. En un sentido común, el término es utilizado para referirse a los spray que vienen en lata.
El origen del término es: materia que flota suspendida en el aire. Un aerosol puede provenir de fuentes naturales (como el caso del polvo y las emisiones volcánicas) o antropogénicas (sulfatos, nitratos y diversos tipos de carbón).
En los últimos tiempos, la mayor atención a los impactos ambientales de los aerosoles antropogénicos se concentró en los efectos de los clorofluorocarbonos (CFC) sobre la capa de ozono en la atmósfera. Estos se utilizaban desde 1928 en refrigerantes y aerosoles. En 1974 se publicó un importante estudio científico de Molina y Rowland que documentó como los CFCs destruyen el ozono. Estudios posteriores estimaron que los CFCs reducirían la capa de ozono en un 7% en 60 años. Estos estudios motivaron a los EEUU a prohibir el uso de los CFCs en los aerosoles en 1978.
Sin embargo, no es sino hasta 1985 cuando los estudios científicos publicados en la revista Nature muestran que los niveles de ozono en la Antártica habían caído a niveles alarmantes. Los observadores de la NASA descubren entonces un agujero en la capa de ozono en la Antártica. Estudios científicos posteriores han acreditado no sólo la existencia del agujero sino la reducción global de la capa de ozono en la atmósfera.
En 1987 se firmó el más importante tratado internacional que busca la eliminación de los CFCs y otras sustancias asociadas para el año 2030: El Protocolo de Montreal. El protocolo, ratificado hoy día por más del 95% de los países consumidores de CFCs (191 naciones) también manda que los signatarios deban compartir la tecnología que hace posible esta eliminación.
Desde que se aprobó el tratado, los niveles de CFCs y sustancias asociadas reguladas se han estabilizado o disminuido, de acuerdo con el NOAA (Administración Nacional Oceánica y Atmosférica del gobierno de los EEUU). Sin embargo, el hueco en la capa de ozono no ha sido reducido hasta hoy día. Asimismo, esta no es la única área de impacto a la atmósfera que generan los antropogénicos. Hoy día se pone atención a otras áreas.
Los aerosoles concentrados de sustancias como la sílica, el asbesto y los particulados del diesel se encuentran muchas veces en los lugares de trabajo y pueden resultar en enfermedades como la silicosis y el pulmón negro (neumoconiosis de los carboneros). Por ello, los trabajadores que se dedican a ciertas tareas deben llevar protectores para su respiración.
El origen del término es: materia que flota suspendida en el aire. Un aerosol puede provenir de fuentes naturales (como el caso del polvo y las emisiones volcánicas) o antropogénicas (sulfatos, nitratos y diversos tipos de carbón).
En los últimos tiempos, la mayor atención a los impactos ambientales de los aerosoles antropogénicos se concentró en los efectos de los clorofluorocarbonos (CFC) sobre la capa de ozono en la atmósfera. Estos se utilizaban desde 1928 en refrigerantes y aerosoles. En 1974 se publicó un importante estudio científico de Molina y Rowland que documentó como los CFCs destruyen el ozono. Estudios posteriores estimaron que los CFCs reducirían la capa de ozono en un 7% en 60 años. Estos estudios motivaron a los EEUU a prohibir el uso de los CFCs en los aerosoles en 1978.
Sin embargo, no es sino hasta 1985 cuando los estudios científicos publicados en la revista Nature muestran que los niveles de ozono en la Antártica habían caído a niveles alarmantes. Los observadores de la NASA descubren entonces un agujero en la capa de ozono en la Antártica. Estudios científicos posteriores han acreditado no sólo la existencia del agujero sino la reducción global de la capa de ozono en la atmósfera.
En 1987 se firmó el más importante tratado internacional que busca la eliminación de los CFCs y otras sustancias asociadas para el año 2030: El Protocolo de Montreal. El protocolo, ratificado hoy día por más del 95% de los países consumidores de CFCs (191 naciones) también manda que los signatarios deban compartir la tecnología que hace posible esta eliminación.
Desde que se aprobó el tratado, los niveles de CFCs y sustancias asociadas reguladas se han estabilizado o disminuido, de acuerdo con el NOAA (Administración Nacional Oceánica y Atmosférica del gobierno de los EEUU). Sin embargo, el hueco en la capa de ozono no ha sido reducido hasta hoy día. Asimismo, esta no es la única área de impacto a la atmósfera que generan los antropogénicos. Hoy día se pone atención a otras áreas.
Los aerosoles concentrados de sustancias como la sílica, el asbesto y los particulados del diesel se encuentran muchas veces en los lugares de trabajo y pueden resultar en enfermedades como la silicosis y el pulmón negro (neumoconiosis de los carboneros). Por ello, los trabajadores que se dedican a ciertas tareas deben llevar protectores para su respiración.
criosfera
La criosfera incluye partes del sistema de la Tierra en donde el agua se encuentra en forma congelada (sólida). Esto incluye: nieve, hielo marino, los icebergs, placas de hielo, glaciares, bloques de hielo y suelos de permafrost. Aproximadamente, tres cuartos del agua dulce del mundo está contenida en la criosfera.
Algunas partes de la criosfera como la nieve y el hielo en los lagos a latitud mediana, sólo están presentes durante los meses de invierno. Otras partes de la criosfera como los glaciares y cascos de hielo, se mantienen congelados durante todo el año y de hecho, pueden permanecer así durante miles e inclusive cientos de años. Algunas de las placas de hielo que cubren la mayoría del continente de la Antártida ha permanecido así durante aproximadamente, millones de años.
Algunas partes de la criosfera como la nieve y el hielo en los lagos a latitud mediana, sólo están presentes durante los meses de invierno. Otras partes de la criosfera como los glaciares y cascos de hielo, se mantienen congelados durante todo el año y de hecho, pueden permanecer así durante miles e inclusive cientos de años. Algunas de las placas de hielo que cubren la mayoría del continente de la Antártida ha permanecido así durante aproximadamente, millones de años.
geósfera
La geósfera corresponde a la porción sólida del planeta. Técnicamente, la geósfera sería la Tierra misma (sin considerar la hidrósfera ni la atmósfera).
De modo práctico y sencillo, diremos que la geósfera está formada por tres grandes zonas diferentes que son:
Corteza terrestre: porción en la cual se encuentra un lecho rocoso y duro, constituido por distintos tipos de rocas. Su espesor varía entre 6 y 70 kilómetros.
En ella se distinguen la corteza continental (que corresponde a los continentes y montañas) y la corteza oceánica (que es la tierra cubierta por los mares y océanos). La corteza está formada por SIAL que es silicio y aluminio.
Manto terrestre: está inmediatamente después de la corteza oceánica, su espesor es de unos 2.800 kilómetros. Las rocas que lo forman pueden desplazarse lentamente una sobre otra. El manto o SIMA está formado por silicio y magnesio.
Núcleo terrestre: parte más profunda de la geósfera, en la que se distingue el núcleo externo, parcialmente fundido, de unos 2.000 kilómetros de espesor. Su temperatura es altísima, y se cree que estaría formado por hierro.
También se distingue el núcleo sólido interno, que tiene un espesor de 1.500 kilómetros. Se piensa que este estaría constituido por hierro con otros metales y no metales. El magnetismo de la Tierra estaría asociado al núcleo interno.
En general, al núcleo lo componen materiales muy densos, con noventa por ciento de hierro y el resto de níquel. De ahí que también se le denomine NIFE (es decir, abreviatura de Níquel-Hierro, que son sus componentes). La densidad del núcleo es aproximadamente de 10.
De modo práctico y sencillo, diremos que la geósfera está formada por tres grandes zonas diferentes que son:
Corteza terrestre: porción en la cual se encuentra un lecho rocoso y duro, constituido por distintos tipos de rocas. Su espesor varía entre 6 y 70 kilómetros.
En ella se distinguen la corteza continental (que corresponde a los continentes y montañas) y la corteza oceánica (que es la tierra cubierta por los mares y océanos). La corteza está formada por SIAL que es silicio y aluminio.
Manto terrestre: está inmediatamente después de la corteza oceánica, su espesor es de unos 2.800 kilómetros. Las rocas que lo forman pueden desplazarse lentamente una sobre otra. El manto o SIMA está formado por silicio y magnesio.
Núcleo terrestre: parte más profunda de la geósfera, en la que se distingue el núcleo externo, parcialmente fundido, de unos 2.000 kilómetros de espesor. Su temperatura es altísima, y se cree que estaría formado por hierro.
También se distingue el núcleo sólido interno, que tiene un espesor de 1.500 kilómetros. Se piensa que este estaría constituido por hierro con otros metales y no metales. El magnetismo de la Tierra estaría asociado al núcleo interno.
En general, al núcleo lo componen materiales muy densos, con noventa por ciento de hierro y el resto de níquel. De ahí que también se le denomine NIFE (es decir, abreviatura de Níquel-Hierro, que son sus componentes). La densidad del núcleo es aproximadamente de 10.
biofera
Añadir leyenda |
El desarrollo del término se atribuye al geólogo inglés Eduard Suess (1831-1914) y al físico ruso Vladimir I. Vernadsky (1863-1945). La biósfera es una de las cuatro capas que rodean la Tierra junto con la litósfera (rocas), hidrósfera (agua), y atmósfera (aire) y es la suma de todos los ecosistemas.
La biósfera es única. Hasta el momento no se ha encontrado existencia de vida en ninguna otra parte del universo. La vida en el planeta Tierra depende del Sol. La energía proveniente del Sol en forma de luz es capturada por las plantas, algunas bacterias y protistas, mediante el maravilloso fenómeno de la fotosíntesis. La energía capturada transforma al bióxido de carbono en compuestos orgánicos, como los azúcares y se produce oxígeno. La inmensa mayoría de las especies de animales, hongos, plantas parásitas y muchas bacterias dependemos directa o indirectament
composicion atmosferica
Así como a grandes rasgos tenemos presente la existencia de mares y océanos, no vivenciamos del mismo modo la sutil presencia de la atmósfera, que tomamos en cuenta apenas como dato ligado a la temperatura ambiental, a la lluvia o a los grandes temporales, en tanto la radio nos bombardea sin cesar con las mediciones de la presión atmosférica, la humedad relativa ambiente, la visibilidad neta, la sensación térmica y la potencia-orientación del viento.
Nada de ello nos ayuda a ubicarnos en el vasto entramado compuesto por el globo terrestre, sus suelos y sus aguas, el aire y la luz solar: la materia prima crucial de lo que llamamos biosfera o esfera de la vida.
Miramos hacia lo alto en una tarde clara: parecería que el espacio no tiene fin. Lo cual es cierto en lo referido al campo visual que denominamos cielo, pero en lo concerniente a la atmósfera existen límites, y muy concretos.
Si el asunto asomó en los últimos años a la cháchara indolente de los medios de comunicación social, ello ha ocurrido en especial a propósito de instancias "críticas" que se han llamado calentamiento global (efecto de invernadero), deterioro de la capa de ozono, acidificación de las lluvias y agonía de los bosques y selvas.
Entretanto, abundan las noticias sobre las situaciones de emergencia respiratoria surgidas en metrópolis poluidas como Santiago de Chile, México (DF), San Pablo o Atenas.
Más allá del apocalipsis vuelto deporte o juego de apuestas, es totalmente cierto que la Tierra atraviesa una crisis atmosférica y climática producida por actividades humanas contaminantes y por superposición de las mismas. Dado que la atmósfera es el envoltorio gaseoso que actúa como enlace entre nuestro planeta y el universo, su frontera inferior en lo concerniente al nexo con el suelo y las aguas resulta obvia.
No sucede lo mismo en lo referido al límite superior, dado que los gases que componen el océano atmosférico van apareciendo en otras proporciones a medida que se acerca más al misterioso mundo del sistema solar.
El medio gaseoso que denominamos aire es en verdad una membrana que en el caso de la atmósfera elemental posee unos 100 kilómetros de espesor. Su capa inferior -bajo la cual vivimos- se denomina troposfera, con un espesor promedio de 12 km y en estado constante de turbulencia, con masas de aire en movimiento continuo y mezcla incesante.
Nada de ello nos ayuda a ubicarnos en el vasto entramado compuesto por el globo terrestre, sus suelos y sus aguas, el aire y la luz solar: la materia prima crucial de lo que llamamos biosfera o esfera de la vida.
Miramos hacia lo alto en una tarde clara: parecería que el espacio no tiene fin. Lo cual es cierto en lo referido al campo visual que denominamos cielo, pero en lo concerniente a la atmósfera existen límites, y muy concretos.
Si el asunto asomó en los últimos años a la cháchara indolente de los medios de comunicación social, ello ha ocurrido en especial a propósito de instancias "críticas" que se han llamado calentamiento global (efecto de invernadero), deterioro de la capa de ozono, acidificación de las lluvias y agonía de los bosques y selvas.
Entretanto, abundan las noticias sobre las situaciones de emergencia respiratoria surgidas en metrópolis poluidas como Santiago de Chile, México (DF), San Pablo o Atenas.
Más allá del apocalipsis vuelto deporte o juego de apuestas, es totalmente cierto que la Tierra atraviesa una crisis atmosférica y climática producida por actividades humanas contaminantes y por superposición de las mismas. Dado que la atmósfera es el envoltorio gaseoso que actúa como enlace entre nuestro planeta y el universo, su frontera inferior en lo concerniente al nexo con el suelo y las aguas resulta obvia.
No sucede lo mismo en lo referido al límite superior, dado que los gases que componen el océano atmosférico van apareciendo en otras proporciones a medida que se acerca más al misterioso mundo del sistema solar.
El medio gaseoso que denominamos aire es en verdad una membrana que en el caso de la atmósfera elemental posee unos 100 kilómetros de espesor. Su capa inferior -bajo la cual vivimos- se denomina troposfera, con un espesor promedio de 12 km y en estado constante de turbulencia, con masas de aire en movimiento continuo y mezcla incesante.
halocarburos
Los halocarburos son gases de origen antrópico, de los cuales los más conocidos son los CFCs (CFC-11 y CFC-12).
Acusados de ser los principales causantes de un posible deterioro del ozono estratosférico, ejercen también en la troposfera como gases de efecto invernadero. Al ser de fabricación humana, su concentración era practicamente nula antes de 1950. Se han utilizado extensamente en los sistemas de refrigeración y como propelentes de los aerosoles en los sprays.
El forzado radiativo que ejercen, en el 2004, es de unos 0,3 W/m2 (IPCC 2007). Gracias a los protocolos internacionales, derivados del pacto de Montreal, su producción se ha reducido drásticamente y la tendencia de su concentración, tanto en la troposfera como en la estratosfera —en donde son destruídos por la radiación ultravioleta—, ha cambiado de signo y comienza a declinar (Engel, 1998).
Sin embargo, ha aumentado la concentración de los gases que les han sustituido en los aparatos refrigerantes, especialmente la de los HFC´s (HFC-23, especialmente), qu
Acusados de ser los principales causantes de un posible deterioro del ozono estratosférico, ejercen también en la troposfera como gases de efecto invernadero. Al ser de fabricación humana, su concentración era practicamente nula antes de 1950. Se han utilizado extensamente en los sistemas de refrigeración y como propelentes de los aerosoles en los sprays.
El forzado radiativo que ejercen, en el 2004, es de unos 0,3 W/m2 (IPCC 2007). Gracias a los protocolos internacionales, derivados del pacto de Montreal, su producción se ha reducido drásticamente y la tendencia de su concentración, tanto en la troposfera como en la estratosfera —en donde son destruídos por la radiación ultravioleta—, ha cambiado de signo y comienza a declinar (Engel, 1998).
Sin embargo, ha aumentado la concentración de los gases que les han sustituido en los aparatos refrigerantes, especialmente la de los HFC´s (HFC-23, especialmente), qu
ozono
El ozono se crea de las reacciones de la luz solar con los óxidos de nitrógeno y dióxido de azufre que contaminan la atmósfera. Se podría decir que hay cientos de fuentes distintas que producen estos dos tipos de contaminantes, algunas son los vapores de gasolinas, los solventes químicos y la combustión de diversos compuestos.
Se forman casi en cualquier sitio, desde las grandes industrias, las estaciones de gasolina, las pequeñas fábricas o las tintorerías. Estos lugares se encuentran generalmente en zonas donde la temperatura ambiente, la radiación solar y el tránsito vehicular facilitan las reacciones para la formación de ozono.
El ozono es una molécula formada por 3 átomos de oxígeno y es una forma alotrópica del oxígeno, es un gas de color azul pálido y al licuarse forma un líquido azul oscuro. Químicamente es muy activo, es un oxidante muy fuerte por lo que se usa como germicida (mata organismos infecciosos) diluido se usa para esterilizar el agua, purificar el aire y llevar a cabo reacciones de oxidación en química orgánica. Se descompone rápidamente en oxígeno a temperaturas mayores a 100º C y a temperatura ambiente en presencia de catalizadores como el dióxido de manganeso, MnO2 .
Tanto el oxígeno atómico (O) como el ozono (O3) son muy reactivos y al reaccionar con los hidrocarburos olefínicos producen aldehídos, cetonas y alcoholes. El ozono absorbe las radiaciones ultravioleta de 300 nanómetros de longitud de onda la cual es mortífera para los seres vivos. Los rayos ultravioleta tipo B de 280 a 320 nanómetros producen mutaciones genéticas en el ADN (ácido desoxirribonucleico) lo que propicia el cáncer de piel, melanoma y cataratas. Además debilita al sistema inmunológico de los organismos lo que los hace propensos a las enfermedades como la gripa, la influenza y el asma, y disminuye el proceso de fotosíntesis de las plantas y por lo tanto la producción de alimentos. Se calcula que hay 12 ppm de ozono en la atmósfera lo que indica que debemos evitar destruirlo con los productos químicos que lo destruyen.
Se forman casi en cualquier sitio, desde las grandes industrias, las estaciones de gasolina, las pequeñas fábricas o las tintorerías. Estos lugares se encuentran generalmente en zonas donde la temperatura ambiente, la radiación solar y el tránsito vehicular facilitan las reacciones para la formación de ozono.
El ozono es una molécula formada por 3 átomos de oxígeno y es una forma alotrópica del oxígeno, es un gas de color azul pálido y al licuarse forma un líquido azul oscuro. Químicamente es muy activo, es un oxidante muy fuerte por lo que se usa como germicida (mata organismos infecciosos) diluido se usa para esterilizar el agua, purificar el aire y llevar a cabo reacciones de oxidación en química orgánica. Se descompone rápidamente en oxígeno a temperaturas mayores a 100º C y a temperatura ambiente en presencia de catalizadores como el dióxido de manganeso, MnO2 .
Tanto el oxígeno atómico (O) como el ozono (O3) son muy reactivos y al reaccionar con los hidrocarburos olefínicos producen aldehídos, cetonas y alcoholes. El ozono absorbe las radiaciones ultravioleta de 300 nanómetros de longitud de onda la cual es mortífera para los seres vivos. Los rayos ultravioleta tipo B de 280 a 320 nanómetros producen mutaciones genéticas en el ADN (ácido desoxirribonucleico) lo que propicia el cáncer de piel, melanoma y cataratas. Además debilita al sistema inmunológico de los organismos lo que los hace propensos a las enfermedades como la gripa, la influenza y el asma, y disminuye el proceso de fotosíntesis de las plantas y por lo tanto la producción de alimentos. Se calcula que hay 12 ppm de ozono en la atmósfera lo que indica que debemos evitar destruirlo con los productos químicos que lo destruyen.
oxido nitroso
El Óxido Nitroso es una sustancia química compuesta por dos partes de nitrógeno y una de oxígeno (N2O). Su estado normal es gaseoso pero a cierta presión se vuelve líquido, lo que lo convierte en un compuesto no demasiado dificil de manipular.Los efectos de un sistema de óxido nitroso, inyectado en el motor, es un repentino aumento de la poténcia de este durante un corto periodo de tiempo (el tiempo que dure la inyección del gas en el motor). Una de las grandes dudas que suele caer sobre este tipo de instalaciones es si dañan el motor y en qué proporción, si el sistema está bién montado y el motor no se somete un tiempo demasiado prolongado al aumento de poténcia no hay ningún problema de afectar a su funcionamiento normalEl óxido es inyectado directamente en el motor de forma que al entrar (teniendo en cuenta que la temperatura del motor suele rondar los 300ºC en el punto de inyección) se separa el oxígeno del nitrógeno, esto hace que la mezcla sea más rica en oxígeno pudiendo quemar mayor cantidad de combustible, y el nitrógeno hace de pantalla, mejorando las condiciones a las que ocurre esto y enfriando los cilindros alrededor de 20ºC.
metano
El metano se produce de forma natural por la descomposición de sustancias orgánicas en ambientes pobres en oxígeno. También se produce en el sistema digestivo de rumiantes y otros animales, en la explotación de combustibles fósiles, y en la quema de biomasa.
Aproximadamente la mitad de la producción de metano proviene de los sembradíos de arroz, de la actividad animal, y de la acción de los termitas. Una cuarta parte proviene de tierras pantanosas y húmedas. Un 15% de la producción industrial de gas natural y carbón mineral. Los rellenos de basura y otras sustancias orgánicas en descomposición contribuyen con un 5% de las emisiones de metano.
A largo plazo, el metano es mucho más preocupante como agente responsable del calentamiento global, que el dióxido de carbono ya que tiene un potencial de calentamiento global 62 veces mayor que este último.
El metano contribuye actualmente con el 15% del Calentamiento Global, excluido el efecto del vapor de agua. Se calcula que hacia fines del siglo XXI el efecto del metano habrá superado al producido por el dióxido de carbono.
Aparentemente la humanidad tiene una capacidad muy reducida para modificar estas cifras ya que medidas drásticas tales como la reducción de la cantidad de habitantes del planeta o de sus raciones alimentarías son imposibles, luego tendremos que concluir que es muy poco lo que la humanidad puede hacer para controlar el flujo de metano a la troposfera, salvo reducir pérdidas en gasoductos, que prácticamente no tienen incidencia a nivel atmosférico.
Aproximadamente la mitad de la producción de metano proviene de los sembradíos de arroz, de la actividad animal, y de la acción de los termitas. Una cuarta parte proviene de tierras pantanosas y húmedas. Un 15% de la producción industrial de gas natural y carbón mineral. Los rellenos de basura y otras sustancias orgánicas en descomposición contribuyen con un 5% de las emisiones de metano.
A largo plazo, el metano es mucho más preocupante como agente responsable del calentamiento global, que el dióxido de carbono ya que tiene un potencial de calentamiento global 62 veces mayor que este último.
El metano contribuye actualmente con el 15% del Calentamiento Global, excluido el efecto del vapor de agua. Se calcula que hacia fines del siglo XXI el efecto del metano habrá superado al producido por el dióxido de carbono.
Aparentemente la humanidad tiene una capacidad muy reducida para modificar estas cifras ya que medidas drásticas tales como la reducción de la cantidad de habitantes del planeta o de sus raciones alimentarías son imposibles, luego tendremos que concluir que es muy poco lo que la humanidad puede hacer para controlar el flujo de metano a la troposfera, salvo reducir pérdidas en gasoductos, que prácticamente no tienen incidencia a nivel atmosférico.
dioxido de carbono
l dióxido de carbono (CO2) es un gas incoloro, denso y poco reactivo. Forma parte de la composición de la tropósfera (capa de la atmósfera más próxima a la Tierra) actualmente en una proporción de 350 ppm. (partes por millón). Su ciclo en la naturaleza está vinculado al del oxígeno.
El balance del dióxido de carbono es sumamente complejo por las interacciones que existen entre la reserva atmosférica de este gas, las plantas que lo consumen en el proceso de fotosíntesis y el transferido desde la tropósfera a los océanos.
El aumento del contenido de dióxido de carbono que se verifica actualmente es un componente del cambio climático global, y posiblemente el mejor documentado. Desde mediados del siglo XIX hasta hoy, el aumento ha sido de 80 ppm.
El análisis de gases retenidos en muestras de hielo obtenidas a distintas profundidades en Antártida y Groenlandia, ha permitido conocer la concentración de dióxido de carbono atmosférico, y de otros gases del llamado efecto invernadero, durante por lo menos los últimos 150.000 año
El balance del dióxido de carbono es sumamente complejo por las interacciones que existen entre la reserva atmosférica de este gas, las plantas que lo consumen en el proceso de fotosíntesis y el transferido desde la tropósfera a los océanos.
El aumento del contenido de dióxido de carbono que se verifica actualmente es un componente del cambio climático global, y posiblemente el mejor documentado. Desde mediados del siglo XIX hasta hoy, el aumento ha sido de 80 ppm.
El análisis de gases retenidos en muestras de hielo obtenidas a distintas profundidades en Antártida y Groenlandia, ha permitido conocer la concentración de dióxido de carbono atmosférico, y de otros gases del llamado efecto invernadero, durante por lo menos los últimos 150.000 año
viernes, 8 de octubre de 2010
que es dropbox
e trata de una herramienta de sincronización de archivos a través de un disco duro o directorio virtual. Permite disponer de un directorio de archivos (de cualquier tipo) de forma remota y accesible desde cualquier ordenador. Es decir, crea una carpeta en nuestra Pc y realiza una copia a través de Internet de todos los archivos que depositemos en ella.
Se ocupa de mantener la copia de nuestros archivos siempre sincronizada, es decir, cada vez que hagamos un cambio en nuestros documentos, por pequeño que sea, lo detectará y volverá a copiárselo al instante, conservando la versión antigua por si la necesitamos en el futuro.Dropbox funciona instalando el programa en cada PC desde el que queramos acceder al directorio virtual y asociándolo a una cuenta determinada. Desde ese momento, dispondremos de una carpeta en la que alojar nuestros archivos y desde la que poder copiar, pegar o arrastrar documentos como si de cualquier carpeta de pc se tratara. El sistema lo tratará como un directorio más, no como un disco duro virtual ni nada similar.
Con los ficheros en «la nube», es posible acceder a ellos desde cualquier computadora del mundo con acceso a Internet a través de la interfaz web de Dropbox, pero las ventajas no se quedan ahí.
Si lo instas en otras PC, también replicará en ellas todos tus ficheros y se ocupará de mantener todas las copias sincronizadas en ambas, lo que permitirá, por ejemplo, iniciar un informe en la oficina, terminarlo en tu casa e imprimir al día siguiente el resultado final desde la oficina sin tener que hacer nada.
Una de las grandes ventajas de Dropbox es que es multiplataforma con lo cual puedes utilizarlo en equipos MAC, Windows y Linux sin problemas.
La noticia de último momento es que Dropbox ha incrementado sus límites de almacenamiento (que antes era de 3GB) hasta los 8GB, permitiendo tener un total de 10 GB gratis de espacio en disco para alojar nuestra archivos en la nube.
Si aún no tienes tu cuenta en Dropbox te invito a registrarte gratis como mi referido a través de este enlace.
Se ocupa de mantener la copia de nuestros archivos siempre sincronizada, es decir, cada vez que hagamos un cambio en nuestros documentos, por pequeño que sea, lo detectará y volverá a copiárselo al instante, conservando la versión antigua por si la necesitamos en el futuro.Dropbox funciona instalando el programa en cada PC desde el que queramos acceder al directorio virtual y asociándolo a una cuenta determinada. Desde ese momento, dispondremos de una carpeta en la que alojar nuestros archivos y desde la que poder copiar, pegar o arrastrar documentos como si de cualquier carpeta de pc se tratara. El sistema lo tratará como un directorio más, no como un disco duro virtual ni nada similar.
Con los ficheros en «la nube», es posible acceder a ellos desde cualquier computadora del mundo con acceso a Internet a través de la interfaz web de Dropbox, pero las ventajas no se quedan ahí.
Si lo instas en otras PC, también replicará en ellas todos tus ficheros y se ocupará de mantener todas las copias sincronizadas en ambas, lo que permitirá, por ejemplo, iniciar un informe en la oficina, terminarlo en tu casa e imprimir al día siguiente el resultado final desde la oficina sin tener que hacer nada.
Una de las grandes ventajas de Dropbox es que es multiplataforma con lo cual puedes utilizarlo en equipos MAC, Windows y Linux sin problemas.
La noticia de último momento es que Dropbox ha incrementado sus límites de almacenamiento (que antes era de 3GB) hasta los 8GB, permitiendo tener un total de 10 GB gratis de espacio en disco para alojar nuestra archivos en la nube.
Si aún no tienes tu cuenta en Dropbox te invito a registrarte gratis como mi referido a través de este enlace.
que es un hacker
la definición del Diccionario de la Lengua Española, hacker es, en el mundo de la computación, una persona muy aficionada y hábil en informática que entra ilegalmente en sistemas y redes ajenas: el hacker se adentra en un sistema como desafío intelectual.
Un tipo de hacker es aquel que ataca informáticamente a una empresa, oficina gubernamental, institución financiera, etc. y accede a archivos privados, bases de datos e información privilegiada, entre otras cosas, para obtener un beneficio económico, político, social, financiero o de espionaje.
En otra categoría, existen hackers que provocan graves perjuicios utilizando una simple computadora personal y desarrollando virus para expandirlos en la red. Un ejemplo de esto es la intrusión en los sistemas informáticos de la NASA por parte de un "pirata" desde una computadora ubicada en Polonia. Sus acciones provocaron daños por valor de más de un millón de dólares según informes de la agencia espacial.
Existe otro tipo de hackers que intenta demostrar que cualquier sitio en la Internet es vulnerable. Así, han aparecido por todo el mundo piratas informáticos que ganan popularidad, renombre y respeto por haber "hackeado" el sitio web de la CIA, el Sistema de Defensa estadounidense, la Casa Blanca, entre otros.
Los hackers informáticos han sido clasificados en el Reino Unido como terroristas, según una ley publicada en febrero de 2001.
Un tipo de hacker es aquel que ataca informáticamente a una empresa, oficina gubernamental, institución financiera, etc. y accede a archivos privados, bases de datos e información privilegiada, entre otras cosas, para obtener un beneficio económico, político, social, financiero o de espionaje.
En otra categoría, existen hackers que provocan graves perjuicios utilizando una simple computadora personal y desarrollando virus para expandirlos en la red. Un ejemplo de esto es la intrusión en los sistemas informáticos de la NASA por parte de un "pirata" desde una computadora ubicada en Polonia. Sus acciones provocaron daños por valor de más de un millón de dólares según informes de la agencia espacial.
Existe otro tipo de hackers que intenta demostrar que cualquier sitio en la Internet es vulnerable. Así, han aparecido por todo el mundo piratas informáticos que ganan popularidad, renombre y respeto por haber "hackeado" el sitio web de la CIA, el Sistema de Defensa estadounidense, la Casa Blanca, entre otros.
Los hackers informáticos han sido clasificados en el Reino Unido como terroristas, según una ley publicada en febrero de 2001.
que son las las profecias
Las grandes religiones monoteístas ..(Islam, Cristianismo, Judaísmo) otorgan gran importancia a las profecías como indicador del designio de Dios (sin embargo, el sentido correcto de una profecía según estas posturas es la dada a los profetas como mensajeros). Hasta la fecha, a pesar de no existir evidencia científica a su favor, los seguidores de estas religiones afirman que las profecías particulares de sus libros sagrados se han cumplido. En el ejemplo cristiano, muchos fieles creen que el Pentateuco fue escrito por Moisés en el siglo XIII a. C. o aún antes y que esto muestra el caracter profetico de los libros del Pentateuco.
Otro tipo de "profetas" (aunque el termino solo se aplica al que transmite la palabra de Dios),aunque estos personajes caben en el marco de la parasicología y las artes adivinatorias, como Nostradamus en sus Centurias, supuestamente dejaron indicaciones de hechos futuros que según los escépticos son tan vagas que podrían referirse a cualquier evento que se pueda hacer coincidir con el hecho profetizado. Lo mismo sucede con algunas profecías tradicionales en las grandes religiones monoteístas, como la «profecía de los Papas» de San Malaquías. Las profecías apocalípticas tienen como tema principal el fin del mundo o Armagedón.
La característica común de las profecías es que, las que sobreviven, han sido determinadas como tales después de que ocurrieron los hechos. Por ejemplo, Jesucristo profetizó que el Templo de Jerusalén sería destruido y efectivamente en el año 70 d.c fue destruido por los romanos.
Algunas supuestas profecías son en realidad leyendas urbanas como por ejemplo la leyenda correspondiente a los eventos del 11 de septiembre de 2001 que circuló en la Internet luego de producido el ataque a las Torres Gemelas.
Otro tipo de "profetas" (aunque el termino solo se aplica al que transmite la palabra de Dios),aunque estos personajes caben en el marco de la parasicología y las artes adivinatorias, como Nostradamus en sus Centurias, supuestamente dejaron indicaciones de hechos futuros que según los escépticos son tan vagas que podrían referirse a cualquier evento que se pueda hacer coincidir con el hecho profetizado. Lo mismo sucede con algunas profecías tradicionales en las grandes religiones monoteístas, como la «profecía de los Papas» de San Malaquías. Las profecías apocalípticas tienen como tema principal el fin del mundo o Armagedón.
La característica común de las profecías es que, las que sobreviven, han sido determinadas como tales después de que ocurrieron los hechos. Por ejemplo, Jesucristo profetizó que el Templo de Jerusalén sería destruido y efectivamente en el año 70 d.c fue destruido por los romanos.
Algunas supuestas profecías son en realidad leyendas urbanas como por ejemplo la leyenda correspondiente a los eventos del 11 de septiembre de 2001 que circuló en la Internet luego de producido el ataque a las Torres Gemelas.
miércoles, 6 de octubre de 2010
que es indesingn
El software Adobe® InDesign® CS5 Server proporciona un motor potente y ampliable que aprovecha las capacidades de diseño, maquetación y tipográficas de Adobe InDesign CS5 para permitirle crear mediante programas documentos atractivos automatizados. Actualmente, el motor de InDesign Server proporciona un amplio abanico de soluciones para publicidad, catálogos, trabajo editorial y publicación, y lo utiliza una gran variedad de empresas y sectores en todo el mun
que es photoshop portable
Esta es una version mejorada del Portable del Photoshop CS3 que salio hace unos meses, primero se han corregido algunos errores, esta completamente en español y contiene los 4 filtros Kodak que llevaba la version anterior. Al descomprimir deben ejecutar Portable Adobe Photoshop CS3 Final.exe y les cargara automanticamente…, antes de subirlo le hemos pasado 4 antivirus:NOD32, Kaspersky.Anti-Virus, Panda y Maccfee y no fue detectado ningun virus…. AL descomprimir hacer en la la ruta del C, para no tener problemas..luego ya mueven la carpeta a donde deseen y crean el acceso directo en el escritorio de Portable Adobe Photoshop CS3.
Requisitos mínimos del sistema:
* Intel® Pentium 4, equivalente o superior
* Microsoft® Windows XP con Service Pack 2
* 256 MB de RAM
* 1 GB de espacio disponible en el disco duro
* Monitor con resolución de 1024×768 con tarjeta de vídeo de 16 bits.
Requisitos mínimos del sistema:
* Intel® Pentium 4, equivalente o superior
* Microsoft® Windows XP con Service Pack 2
* 256 MB de RAM
* 1 GB de espacio disponible en el disco duro
* Monitor con resolución de 1024×768 con tarjeta de vídeo de 16 bits.
que es la playbook?
El PlayBook vio la luz en la jornada inaugural de la feria dedesarrolladores de software DevCon 2010 de San Francisco y fue definido por el presidente de RIM, Mike Lazaridis, como la tablet profesional destinada a redefinir el mercado de las computadoras portátiles de pantalla multitáctil. El dispositivo contará con un nuevo sistema operativo creado por la empresa QNX, el BlackBerry Tablet OS.
Está previsto que el PlayBook salga a la venta en los Estados Unidos (EE.UU.) a principios de 2011, a un precio que aún no ha trascendido, y que se comercialice en los mercados internacionales a partir de abril del año próximo. El dispositivo contará con una pantalla multitactil de siete pulgadas, pesará 400 gramos (300 menos que el iPad), tendrá 9,7 milímetros de grosor y capacidad para reproducir videos de alta definición. Estará integrado con conexión Wi-Fi, aunque su primera versión no será 3G, una tecnología que RIM incluirá más adelante, si bien se podrá sincronizar a los teléfonos BlackBerry a través de Bluetooth y acceder a distancia a los contenidos del móvil. El nuevo aparato aceptará flash, HTML5, tendrá 1GB de memoria RAM, un procesador de 1 GHz, puertos para conexiones HDMI y USB y dos cámaras, una frontal de tres megapixeles y otra de cinco.
Está previsto que el PlayBook salga a la venta en los Estados Unidos (EE.UU.) a principios de 2011, a un precio que aún no ha trascendido, y que se comercialice en los mercados internacionales a partir de abril del año próximo. El dispositivo contará con una pantalla multitactil de siete pulgadas, pesará 400 gramos (300 menos que el iPad), tendrá 9,7 milímetros de grosor y capacidad para reproducir videos de alta definición. Estará integrado con conexión Wi-Fi, aunque su primera versión no será 3G, una tecnología que RIM incluirá más adelante, si bien se podrá sincronizar a los teléfonos BlackBerry a través de Bluetooth y acceder a distancia a los contenidos del móvil. El nuevo aparato aceptará flash, HTML5, tendrá 1GB de memoria RAM, un procesador de 1 GHz, puertos para conexiones HDMI y USB y dos cámaras, una frontal de tres megapixeles y otra de cinco.
que es vnc viewer
VNC es un programa de software libre basado en una estructura cliente-servidor el cual nos permite tomar el control del ordenador servidor remotamente a través de un ordenador cliente. También llamado software de escritorio remoto. VNC no impone restricciones en el sistema operativo del ordenador servidor con respecto al del cliente: es posible compartir la pantalla de una máquina con cualquier sistema operativo que soporte VNC conectándose desde otro ordenador o dispositivo que disponga de un cliente VNC portado.
La versión original del VNC se desarrolló en Reino Unido, concretamente en los laboratorios AT&T, en Cambridge. El programa era de código abierto por lo que cualquiera podía modificarlo y existen hoy en día varios programas para el mismo uso.
En la enseñanza VNC sirve para que el profesor comparta su pantalla con los alumnos, por ejemplo en un laboratorio. También puede usarse para que un técnico ayude a un usuario inexperto, el técnico ve remotamente el problema que informa el usuario.
El programa servidor suele tener la opción de funcionar como servidor HTTP para mostrar la pantalla compartida en un navegador con soporte de Java. En este caso el usuario remoto (cliente) no tiene que instalar un programa cliente de VNC, éste es descargado por el navegador automáticamente.
La versión original del VNC se desarrolló en Reino Unido, concretamente en los laboratorios AT&T, en Cambridge. El programa era de código abierto por lo que cualquiera podía modificarlo y existen hoy en día varios programas para el mismo uso.
En la enseñanza VNC sirve para que el profesor comparta su pantalla con los alumnos, por ejemplo en un laboratorio. También puede usarse para que un técnico ayude a un usuario inexperto, el técnico ve remotamente el problema que informa el usuario.
El programa servidor suele tener la opción de funcionar como servidor HTTP para mostrar la pantalla compartida en un navegador con soporte de Java. En este caso el usuario remoto (cliente) no tiene que instalar un programa cliente de VNC, éste es descargado por el navegador automáticamente.
que es un echofon?
Nunca he sido muy aficionado a los clientes de escritorio de Twitter, porque siempre me han parecido una pérdida de tiempo y de concentración. Sin embargo, después de comenzar a utilizar Echofon y ver todas sus posibilidades puedo decir que sólo entro a la página de Twitter una vez a la semana para ver si tengo alguna solicitud de seguimiento. ¿Por qué me gusta tanto Echofon? Pues porque tiene una característica que llevaba reclamando en todos los clientes que había probado antes (Tweetie, Nambu, Tweetdeck,…) que es la opción para que sólo te lleguen notificaciones cuando te realizan un…
que es autocad?
AutoCAD es un software del tipo CAD - computer aided design o diseño asistido por computadora - creado y comercializado por Autodesk desde 1982. Es utilizado principalmente para la elaboración de piezas de dibujo técnico en dos dimensiones (2D) y para creación de modelos tridimensionales (3D). Además de dibujos técnicos, el software incorpora, varios recursos para la visualización en diversos formatos. Es ampliamente utilizado en arquitectura, diseño de interiores, ingeniería mecánica y en varios otros ramos de la industria.
AutoCAD es un programa (software), que encuadra en el concepto de tecnología CAD es utilizado mundialmente para la creación de diseños en computadora. En verdad, AutoCAD es el nombre de un producto, así como Windows, Office (Word, Excel,...), etc. Existen otros softwares CAD como MicroStation, VectorWorks, IntelligentCad; para modelamiento tridimensional y paramétricos como Catia, Pro Engineer, Solid Works, Solid Edges, etc.
AutoCAD es un programa (software), que encuadra en el concepto de tecnología CAD es utilizado mundialmente para la creación de diseños en computadora. En verdad, AutoCAD es el nombre de un producto, así como Windows, Office (Word, Excel,...), etc. Existen otros softwares CAD como MicroStation, VectorWorks, IntelligentCad; para modelamiento tridimensional y paramétricos como Catia, Pro Engineer, Solid Works, Solid Edges, etc.
¿que es app pagues?
Si te interesa la fotografía, seguramente conocerás Flickr, el servicio de fotografías por excelencia. Desde que tengo iPhone he buscado una aplicación que me hiciera más cómoda la navegación por Flickr, pero no he encontrado nada que me guste, ni siquiera la app oficial.
Sin embargo, con el iPad todo cambia. De momento no hay app oficial de Flickr, pero FlickrStackr me ha causado muy buena impresión. Es multicuenta (aunque algunas funciones pueden usarse incluso sin cuenta), te permite navegar por tus fotos, las de tus contactos, navegar por el Explore, comentar (sin salir de la app), favoritear… incluso subir fotos, aunque esta opción no la he probado ya que no uso el iPad para subir fotos (y en el iPhone, sigo prefiriendo subirlas por mail).
Una opción que me ha gustado mucho es la de “Stack”, una pila en la que puedes añadir fotos para tenerlas más a mano (una especie de “favoritos” en local).
Lo único que no me ha gustado de FlickrStackr es que el apartado “actividad reciente” sólo muestra la actividad en tus fotos (el apartado equivalente en Flickr muestra también la actividad en fotos de terceros en las que has participado).
Sin embargo, con el iPad todo cambia. De momento no hay app oficial de Flickr, pero FlickrStackr me ha causado muy buena impresión. Es multicuenta (aunque algunas funciones pueden usarse incluso sin cuenta), te permite navegar por tus fotos, las de tus contactos, navegar por el Explore, comentar (sin salir de la app), favoritear… incluso subir fotos, aunque esta opción no la he probado ya que no uso el iPad para subir fotos (y en el iPhone, sigo prefiriendo subirlas por mail).
Una opción que me ha gustado mucho es la de “Stack”, una pila en la que puedes añadir fotos para tenerlas más a mano (una especie de “favoritos” en local).
Lo único que no me ha gustado de FlickrStackr es que el apartado “actividad reciente” sólo muestra la actividad en tus fotos (el apartado equivalente en Flickr muestra también la actividad en fotos de terceros en las que has participado).
que es app numbers
Numbers, la avanzada aplicación de hojas de cálculo para Mac, ha sido totalmente rediseñada para el iPad para que pueda crear atractivas y convincentes hojas de cálculo en cuestión de minutos simplemente tocando la brillante pantalla Multi-Touch. Con más de 250 sencillas funciones, un teclado inteligente, tablas flexibles impactantes, tendrá todas las respuestas al alcance de sus dedos.
Numbers tiene todo lo que necesita para organizar sus datos, realizar cálculos y gestionar listas fácilmente con tan solo sus dedos. Para empezar, elija una de las magníficas plantillas diseñada por Apple y añada sus propias tablas y gráficas, o bien abra un archivo de Numbers ’09, de Microsoft Excel o CSV. Utilice los estilos predefinidos de tablas, gráficas, imágenes y texto para dar a sus hojas de cálculo un toque personal.
y gráficas
Numbers tiene todo lo que necesita para organizar sus datos, realizar cálculos y gestionar listas fácilmente con tan solo sus dedos. Para empezar, elija una de las magníficas plantillas diseñada por Apple y añada sus propias tablas y gráficas, o bien abra un archivo de Numbers ’09, de Microsoft Excel o CSV. Utilice los estilos predefinidos de tablas, gráficas, imágenes y texto para dar a sus hojas de cálculo un toque personal.
y gráficas
que es appkeynote
Acaba de salir el nuevo juguetito de Apple, el iPad. Al tratarse de un iPhone pero con pantalla mucho mas grande, ofrece nuevas posibilidades en lo que a usabilidad de aplicaciones se refiere. Después de la demostración de facilidad de uso de su hermano pequeño, el iPad continua con la misma filosofía y nos sorprende, a los amantes de las presentaciones powerpoint o keynotes, una aplicación para la creación de presentaciones powerpoint.
miércoles, 29 de septiembre de 2010
poque gogle es el mejor buscador wed
Google Inc. es la empresa propietaria de la marca Google, cuyo principal producto es el motor de búsqueda del mismo nombre. Dicho motor surge como una tesis doctoral por Larry Page y Sergey Brin (dos estudiantes de doctorado en ciencias de la computación de la Universidad de Stanford) para mejorar las búsquedas en Internet, la coordinación y asesoramiento la realizó el mexicano Héctor García Molina quien fungía como director del Laboratorio de Ciencias Computacionales también de la Universidad de Stanford[4] . Partiendo de dicho proyecto concluido, Page y Brin fundan el 4 de septiembre de 1998 a Google Inc. Éste motor de búsqueda se sobrepuso a otro más popular de la época, el buscador AltaVista que había sido creado en 1995.
Aunque su principal producto es el buscador, la empresa ofrece también entre otros servicios: un comparador de precios llamado Google Product Search (antes conocido como "Froogle", un motor de búsqueda para material almacenado en discos locales (Google Desktop Search), un servicio de correo electrónico llamado Gmail, su mapamundi en 3D Google Earth o un servicio de mensajería instantánea basado en Jabber/XMPP llamado Google Talk.
Actualmente Google está trabajando en nuevos proyectos como el PC de 100 dólares, un nuevo sistema operativo, Google Docs & Spreadsheets, colaboración y promoción de aplicaciones de software libre como Firefox, instalación de varias redes inalámbricas gratuitas, desarrollo de un sistema de protocolo abierto de comunicación por voz entre otros. Además se especula que estaría trabajando en el desarrollo de un "Google Office" y una red global de fibra óptica.
Vint Cerf, considerado uno de los padres de Internet, fue contratado por Google en 2005. La compañía cotiza en la NASDAQ bajo la clave GOOG.
En octubre de 2006, Google adquirió por 1.650 millones de dólares la famosa página de vídeos YouTube.
En abril de 2007, Google compró DoubleClick, una empresa especializada en publicidad en Internet, por 3.100 millones de dólares. Este mismo mes, Google se convirtió en la marca más valiosa del mundo, alcanzando la suma de 66.000 millones de dólares, superando a emblemáticas empresas como Microsoft, General Electric y Coca-Cola.
En julio de 2007, Google compró Panoramio, un sitio web dedicado a exhibir las fotografías que los propios usuarios crean y geoposicionan, siendo algunas de ellas subidas al sitio para que puedan ser vistas a través del software Google Earth, cuyo objetivo es permitir a los usuarios del mencionado software aprender más sobre una zona específica del mapa, observando las fotografías que otros usuarios han tomado ahí.
Aunque su principal producto es el buscador, la empresa ofrece también entre otros servicios: un comparador de precios llamado Google Product Search (antes conocido como "Froogle", un motor de búsqueda para material almacenado en discos locales (Google Desktop Search), un servicio de correo electrónico llamado Gmail, su mapamundi en 3D Google Earth o un servicio de mensajería instantánea basado en Jabber/XMPP llamado Google Talk.
Actualmente Google está trabajando en nuevos proyectos como el PC de 100 dólares, un nuevo sistema operativo, Google Docs & Spreadsheets, colaboración y promoción de aplicaciones de software libre como Firefox, instalación de varias redes inalámbricas gratuitas, desarrollo de un sistema de protocolo abierto de comunicación por voz entre otros. Además se especula que estaría trabajando en el desarrollo de un "Google Office" y una red global de fibra óptica.
Vint Cerf, considerado uno de los padres de Internet, fue contratado por Google en 2005. La compañía cotiza en la NASDAQ bajo la clave GOOG.
En octubre de 2006, Google adquirió por 1.650 millones de dólares la famosa página de vídeos YouTube.
En abril de 2007, Google compró DoubleClick, una empresa especializada en publicidad en Internet, por 3.100 millones de dólares. Este mismo mes, Google se convirtió en la marca más valiosa del mundo, alcanzando la suma de 66.000 millones de dólares, superando a emblemáticas empresas como Microsoft, General Electric y Coca-Cola.
En julio de 2007, Google compró Panoramio, un sitio web dedicado a exhibir las fotografías que los propios usuarios crean y geoposicionan, siendo algunas de ellas subidas al sitio para que puedan ser vistas a través del software Google Earth, cuyo objetivo es permitir a los usuarios del mencionado software aprender más sobre una zona específica del mapa, observando las fotografías que otros usuarios han tomado ahí.
que dispositivo utiliza android
Alrededor del 70% de los dispositivos que incorporan este S.O. usan, ya sea Android 1.5 (Cupcake) o Android 1.6 (Donut), en desmedro del último que ha pisado el mercado, Android 2.1 (Eclair).
Cabe destacar, eso sí, que Android 2.1, alias Eclair, no lo está haciendo nada mal, pues se lleva el 27% del mercado actual del sistema operativo. Recordemos que es justamente esta versión la que utilizan nuestros ya bien conocidos Google Nexus One y el Motorola Droid.
Cabe destacar, eso sí, que Android 2.1, alias Eclair, no lo está haciendo nada mal, pues se lleva el 27% del mercado actual del sistema operativo. Recordemos que es justamente esta versión la que utilizan nuestros ya bien conocidos Google Nexus One y el Motorola Droid.
que es android
Android es una plataforma de código abierto para dispositivos móviles que está basada en Linux y desarrollada por Open handset alliance, se prevee que los primeros teléfonos con Android aparezcan en el segundo semestre de 2008 y compañias poderosas como LG, Motorola y HTC ya han diseñado alguno de los prototipos que incorporarán el sistema Android.
que es linux
Linux es uno de los tantos flavors de Unix. Se trata de un sistema operativo de 32 bits de libre distribución, desarrollado originalmente por Linus Torvalds, un estudiante de la universidad finlandesa de Helsinki, quien, en 1991, se abocó a la tarea de reemplazar a Minix, un clon de Unix de pequeñas proporciones y finalidad académica desarrollado años antes por Andrew Tannenbaun.
A medida que avanzaba en su desarrollo, Linus fue dejando el código fuente de las sucesivas versiones del kernel y utilidades de Linux a disponibilidad de los usuarios de Internet. Este fue sin duda un gran acierto, ya que hizo posible que una multitud de desarrolladores de todo el mundo se familiarizaran con el código, lo cual en primera instancia significó un gran aporte de sugerencias, evolucionado luego hacia un espectacular ejemplo de desarrollo distribuido de software: centenares de desarrolladores independientes, desde diferentes puntos del planeta tomaron a su cargo la producción de software para Linux, ya sea escribiéndolo desde cero o portándolo desde otras plataformas Unix. Esta modalidad de desarrollo continua aún hoy y ha permitido a Linux alcanzar un alto nivel de desarrollo y madurez, así también como un amplio grado de aceptación.
Actualmente, Linux posee todas las características que pueden encontrarse en cualquier sistema Unix moderno, incluyendo direccionamiento lineal de 32 bits, memoria virtual, multitarea real, shared libraries, módulos de kernel cargables on-demand, soporte TCP/IP (incluyendo SLIP, PPP, NFS, etc.), y sistema X-Windows (incluyendo servidores X para los adaptadores de video más populares, y clones de Motif, OpenLook, NextStep y Windows95 como window managers)
A medida que avanzaba en su desarrollo, Linus fue dejando el código fuente de las sucesivas versiones del kernel y utilidades de Linux a disponibilidad de los usuarios de Internet. Este fue sin duda un gran acierto, ya que hizo posible que una multitud de desarrolladores de todo el mundo se familiarizaran con el código, lo cual en primera instancia significó un gran aporte de sugerencias, evolucionado luego hacia un espectacular ejemplo de desarrollo distribuido de software: centenares de desarrolladores independientes, desde diferentes puntos del planeta tomaron a su cargo la producción de software para Linux, ya sea escribiéndolo desde cero o portándolo desde otras plataformas Unix. Esta modalidad de desarrollo continua aún hoy y ha permitido a Linux alcanzar un alto nivel de desarrollo y madurez, así también como un amplio grado de aceptación.
Actualmente, Linux posee todas las características que pueden encontrarse en cualquier sistema Unix moderno, incluyendo direccionamiento lineal de 32 bits, memoria virtual, multitarea real, shared libraries, módulos de kernel cargables on-demand, soporte TCP/IP (incluyendo SLIP, PPP, NFS, etc.), y sistema X-Windows (incluyendo servidores X para los adaptadores de video más populares, y clones de Motif, OpenLook, NextStep y Windows95 como window managers)
que es la coagulacion
Cuando una lesión afecta la integridad de las paredes de los vasos sanguíneos, se ponen en marcha una serie de mecanismos que tienden a limitar la pérdida de sangre. Estos mecanismos llamados de "hemostasia" comprenden la vasoconstricción local del vaso, el depósito y agregación de plaquetas y la coagulación de la sangre.
Se denomina coagulación al proceso, por el cual, la sangre pierde su liquidez, tornándose similar a un gel en primera instancia y luego sólida, sin experimentar un verdadero cambio de estado.
Este proceso es debido, en última instancia, a que una proteína soluble que normalmente se encuentra en la sangre, el fibrinógeno, experimenta un cambio químico que la convierte en insoluble y con la capacidad de entrelazarse con otras moléculas iguales, para formar enormes agregados macromoléculares en forma de una red tridimensional.
El fibrinógeno, una vez transformado, recibe el nombre de fibrina. Coagulación es por lo tanto, el proceso enzimático por el cual el fibrinógeno soluble se convierte en fibrina insoluble, capaz de polimerizar y entrecruzarse.
Un coágulo es, por lo tanto, una red tridimensional de fibrina que eventualmente ha atrapado entre sus fibras a otras proteínas, agua, sales y hasta células sanguíneas.
Se denomina coagulación al proceso, por el cual, la sangre pierde su liquidez, tornándose similar a un gel en primera instancia y luego sólida, sin experimentar un verdadero cambio de estado.
Este proceso es debido, en última instancia, a que una proteína soluble que normalmente se encuentra en la sangre, el fibrinógeno, experimenta un cambio químico que la convierte en insoluble y con la capacidad de entrelazarse con otras moléculas iguales, para formar enormes agregados macromoléculares en forma de una red tridimensional.
El fibrinógeno, una vez transformado, recibe el nombre de fibrina. Coagulación es por lo tanto, el proceso enzimático por el cual el fibrinógeno soluble se convierte en fibrina insoluble, capaz de polimerizar y entrecruzarse.
Un coágulo es, por lo tanto, una red tridimensional de fibrina que eventualmente ha atrapado entre sus fibras a otras proteínas, agua, sales y hasta células sanguíneas.
porque se producen los escalofrios
Los escalofríos son una de las reacciones más habituales del cuerpo humano y, a pesar de ello, con frecuencia se desconocen tanto sus causas como su finalidad. Tras su aparente simplicidad, los escalofríos están provocados por complejos mecanismos termorreguladores, de los que se vale el organismo para mantener constante, dentro de unos límites, la temperatura interna del cuerpo.Los escalofríos normales se producen, de forma natural, cuando el cuerpo está expuesto a frío intenso, para evitar el escape del calor corporal al exterior. El medio que utiliza el sistema de regulación natural para provocarlos consiste en reducir el riego sanguíneo, en contraer y relajar los músculos para generar calor, en cerrar los poros cutáneos para evitar el sudor y, en consecuencia, la salida de calor. Al contraerse los músculos eréctiles del vello de la piel, los pelos se ponen de punta.
Es conveniente aclarar que en el fenómeno que se conoce por «piel o carne de gallina» sólo intervienen las fibras musculares de la piel, por lo que es una manifestación mucho más superficial que el escalofrío en sí, que abarca una mayor actividad de sistemas y reacciones corporales.
Es conveniente aclarar que en el fenómeno que se conoce por «piel o carne de gallina» sólo intervienen las fibras musculares de la piel, por lo que es una manifestación mucho más superficial que el escalofrío en sí, que abarca una mayor actividad de sistemas y reacciones corporales.
que es el PH
El pH es una medida utilizada por la química para evaluar la acidez o alcalinidad de una sustancia por lo general en su estado líquido (también se puede utilizar para gases). Se entiende por acidez la capacidad de una sustancia para aportar a una disolución acuosa iones de hidrógeno, hidrogeniones (H*) al medio. La alcalinidad o base aporta hidroxilo OH- al medio. Por lo tanto, el pH mide la concentración de iones de hidrógeno de una sustancia, a pesar de que hay muchas definiciones al respecto.
Como cualquier medida, el pH posee una escala propia que indica con exactitud un valor. Ésta es una tabla que va del número cero al catorce, siendo de esta manera el siete el número del medio. Si el pH es de cero a seis, la solución es considerada ácida; por el contrario, si el pH es de ocho a catorce, la solución se considera alcalina. Si la sustancia es más ácida, más cerca del cero estará; y entre más alcalina el resultado será más cerca del catorce. Si la solución posee un pH siete, es considerada neutra. Sin embargo el pH siete neutro se limita con seguridad, tan sólo a las soluciones acuosas, pues las que no son, si no están a una temperatura y presión normal, el valor de la neutralidad puede variar.
Como cualquier medida, el pH posee una escala propia que indica con exactitud un valor. Ésta es una tabla que va del número cero al catorce, siendo de esta manera el siete el número del medio. Si el pH es de cero a seis, la solución es considerada ácida; por el contrario, si el pH es de ocho a catorce, la solución se considera alcalina. Si la sustancia es más ácida, más cerca del cero estará; y entre más alcalina el resultado será más cerca del catorce. Si la solución posee un pH siete, es considerada neutra. Sin embargo el pH siete neutro se limita con seguridad, tan sólo a las soluciones acuosas, pues las que no son, si no están a una temperatura y presión normal, el valor de la neutralidad puede variar.
cuales son los alimento cancerigenos
Perritos Calientes: La Coalición para la Prevención del Cáncer recomienda que los niños no coman más de 12 perritos calientes al mes, debido al riesgo de cáncer. Si de todas maneras los vas a tomar, busca aquellos que no tengan nitrito de sodio entre sus ingredientes.
o Carnes procesadas y bacon: Estas carnes casi siempre contienen el mismo nitrito de sodio que los perritos calientes. Se pueden encontrar algunos sin nitritos, pero tendrás que buscarlos en tiendas de alimentos naturales o herboristerías. El bacon también es alto en grasa saturada, que contribuye al riesgo de cánceres diversos, incluyendo el cáncer de mama. El limitar el consumo de carnes procesadas y grasas saturadas también beneficia al corazón.
o Donuts: Los donuts contienen aceites hidrogenados, harina blanca, azúcar, y archilamidas. En esencia, son uno de los peores alimentos cancerígenos que puedas comer. La revista Reader’s Digest llama a los donuts “desastrosos” como alimento para el desayuno, y muchos expertos están de acuerdo en que son probablemente una de las peores maneras de empezar el día.
o Patatas fritas: Las patatas fritas están hechas con aceite hidrogenado y frito a altas temperaturas. Algunas cadenas de comida rápida incluso añaden azúcar a sus patatas para hacerlas más irresistibles. No solo bloquean las arterias con grasas saturadas y grasas transgénicas, también contienen acrilamidas. Deberían llamarse “patatas cancerígenas”.
o Papas (patatillas) galletas saladas, cookies: Éstas generalmente contienen harina blanca y azúcar, así como grasas transgénicas, pero no basta con buscar estos ingredientes en la etiqueta; de hecho tienes que “decodificar” la lista de ingredientes que los fabricantes de alimentos utilizan para engañar a los consumidores. Esto se hace escondiendo los ingredientes (como esconden el Monosodio de Glutamato en el extracto de levadura, o trampeando con las porciones individuales, para poder decir que el alimento está libre de grasas transgénicas, incluso cuando sí las contiene
o Carnes procesadas y bacon: Estas carnes casi siempre contienen el mismo nitrito de sodio que los perritos calientes. Se pueden encontrar algunos sin nitritos, pero tendrás que buscarlos en tiendas de alimentos naturales o herboristerías. El bacon también es alto en grasa saturada, que contribuye al riesgo de cánceres diversos, incluyendo el cáncer de mama. El limitar el consumo de carnes procesadas y grasas saturadas también beneficia al corazón.
o Donuts: Los donuts contienen aceites hidrogenados, harina blanca, azúcar, y archilamidas. En esencia, son uno de los peores alimentos cancerígenos que puedas comer. La revista Reader’s Digest llama a los donuts “desastrosos” como alimento para el desayuno, y muchos expertos están de acuerdo en que son probablemente una de las peores maneras de empezar el día.
o Patatas fritas: Las patatas fritas están hechas con aceite hidrogenado y frito a altas temperaturas. Algunas cadenas de comida rápida incluso añaden azúcar a sus patatas para hacerlas más irresistibles. No solo bloquean las arterias con grasas saturadas y grasas transgénicas, también contienen acrilamidas. Deberían llamarse “patatas cancerígenas”.
o Papas (patatillas) galletas saladas, cookies: Éstas generalmente contienen harina blanca y azúcar, así como grasas transgénicas, pero no basta con buscar estos ingredientes en la etiqueta; de hecho tienes que “decodificar” la lista de ingredientes que los fabricantes de alimentos utilizan para engañar a los consumidores. Esto se hace escondiendo los ingredientes (como esconden el Monosodio de Glutamato en el extracto de levadura, o trampeando con las porciones individuales, para poder decir que el alimento está libre de grasas transgénicas, incluso cuando sí las contiene
que es el aspartame
El aspartamo es un edulcorante no calórico descubierto en 1965 y comercializado en los ochenta. Numerosas organizaciones nacionales e internacionales han evaluado la inocuidad del aspartamo y un comité internacional de expertos ha establecido un nivel de Ingesta Diaria Admisible (IDA). Sin embargo, ciertas voces han reabierto el debate sobre los riesgos que el aspartamo pudiera representar para la salud.[cita requerida]
El aspartamo es un polvo blanco e inodoro que se emplea en numerosos alimentos en todo el mundo. Se comercializa bajo varias marcas, como Natreen, Canderel o Nutrasweet, y corresponde al código E951 en Europa. El aspartamo es estable cuando se encuentra seco o congelado, pero se descompone y pierde su poder edulcorante con el transcurso del tiempo, cuando se conserva en líquidos a temperaturas superiores a 30 °C.
La dulzura relativa del aspartamo es de 200 por lo que el aspartamo es 2 veces más dulce que el azúcar. Es necesario destacar que los edulcorantes se clasifican con respecto a la sacarosa o azúcar común, el cual al ser una referencia toma un valor de dulzura de 100 (siendo entonces el 100%). Dado que el aspartamo tiene un valor edulcorante de 200, dividiendo el valor edulcorante del aspartamo entre el de la sacarosa (200/100=2) obtenemos que su capacidad para endulzar es el doble que la de la sacarosa.1 Un error muy común es dar a la sacarosa valor edulcorante 1 y por tanto en este caso, estaría mal decir que "el aspartamo es 200 veces mas dulce que la sacarosa
El aspartamo es un polvo blanco e inodoro que se emplea en numerosos alimentos en todo el mundo. Se comercializa bajo varias marcas, como Natreen, Canderel o Nutrasweet, y corresponde al código E951 en Europa. El aspartamo es estable cuando se encuentra seco o congelado, pero se descompone y pierde su poder edulcorante con el transcurso del tiempo, cuando se conserva en líquidos a temperaturas superiores a 30 °C.
La dulzura relativa del aspartamo es de 200 por lo que el aspartamo es 2 veces más dulce que el azúcar. Es necesario destacar que los edulcorantes se clasifican con respecto a la sacarosa o azúcar común, el cual al ser una referencia toma un valor de dulzura de 100 (siendo entonces el 100%). Dado que el aspartamo tiene un valor edulcorante de 200, dividiendo el valor edulcorante del aspartamo entre el de la sacarosa (200/100=2) obtenemos que su capacidad para endulzar es el doble que la de la sacarosa.1 Un error muy común es dar a la sacarosa valor edulcorante 1 y por tanto en este caso, estaría mal decir que "el aspartamo es 200 veces mas dulce que la sacarosa
que es el open soure
ódigo Abierto (open source en inglés) es un término que empezó a utilizarse en 1998 por algunos usuarios de la comunidad del software libre, usándolo como reemplazo al ambiguo nombre original, en inglés, del software libre (free software), que no significaba exactamente lo que se pretendía (free significa a la vez "gratis" y "libre").
El significado obvio del término "código abierto" es "se puede mirar el código fuente", lo cual es un significado más exacto que el del software libre. El software de código abierto (OSS por sus siglas en inglés) es software para el que su código fuente está disponible públicamente. Un programa de código abierto puede ser software libre, pero también puede serlo un programa por el que hay que pagar. Los términos de licenciamiento específicos del Código Abierto varían respecto a lo que se puede hacer con ese código fuente. O sea, "abierto" no necesariamente es "gratis", aunque en su gran mayoría lo sea.
La idea que late detrás del Código Abierto (open source) es bien sencilla: cuando los programadores en internet pueden leer, modificar y redistribuir el código fuente de un programa, éste evoluciona, se desarrolla y mejora. Los usuarios lo adaptan a sus necesidades, corrigen sus errores. Y esto puede ocurrir a tal velocidad que el que está acostumbrado al ritmo de desarrollo de los programas comerciales no lo puede concebir.
El significado obvio del término "código abierto" es "se puede mirar el código fuente", lo cual es un significado más exacto que el del software libre. El software de código abierto (OSS por sus siglas en inglés) es software para el que su código fuente está disponible públicamente. Un programa de código abierto puede ser software libre, pero también puede serlo un programa por el que hay que pagar. Los términos de licenciamiento específicos del Código Abierto varían respecto a lo que se puede hacer con ese código fuente. O sea, "abierto" no necesariamente es "gratis", aunque en su gran mayoría lo sea.
La idea que late detrás del Código Abierto (open source) es bien sencilla: cuando los programadores en internet pueden leer, modificar y redistribuir el código fuente de un programa, éste evoluciona, se desarrolla y mejora. Los usuarios lo adaptan a sus necesidades, corrigen sus errores. Y esto puede ocurrir a tal velocidad que el que está acostumbrado al ritmo de desarrollo de los programas comerciales no lo puede concebir.
que es mozilla
Mozilla Firefox es un navegador web libre y de código abierto, descendiente de Mozilla Application Suite y actualmente desarrollado por la Corporación Mozilla, la Fundación Mozilla y un gran número de voluntarios externos.4 Mozilla Firefox es el segundo navegador más utilizado de Internet, con una cuota de mercado del 22,93% a finales de agosto de 2010, según la firma Net Applications.5 Otras fuentes de medición global sitúan el uso de Firefox entre el 21% y el 32%.6 7 8
Para visualizar páginas web, Firefox usa el motor de renderizado Gecko, que implementa estándares web actuales además de otras funciones, algunas de las cuales están destinadas a anticipar probables adiciones a los estándares web.9
Incluye navegación por pestañas, corrector ortográfico, búsqueda progresiva, marcadores dinámicos, un administrador de descargas, navegación privada, navegación con georreferenciación y un sistema de búsqueda integrado que utiliza el motor de búsqueda que desee el usuario. Además se pueden añadir funciones a través de complementos desarrollados por terceros,10 entre los que hay una amplia selección, característica que ha atraído a muchos de los usuarios actuales del navegador.11
Firefox es un navegador multiplataforma y está disponible en varias versiones de Microsoft Windows, Mac OS X, GNU/Linux y algunos sistemas basados en Unix.12 Su código fuente es software libre, publicado bajo una triple licencia GPL/LGPL/MPL.13
Para visualizar páginas web, Firefox usa el motor de renderizado Gecko, que implementa estándares web actuales además de otras funciones, algunas de las cuales están destinadas a anticipar probables adiciones a los estándares web.9
Incluye navegación por pestañas, corrector ortográfico, búsqueda progresiva, marcadores dinámicos, un administrador de descargas, navegación privada, navegación con georreferenciación y un sistema de búsqueda integrado que utiliza el motor de búsqueda que desee el usuario. Además se pueden añadir funciones a través de complementos desarrollados por terceros,10 entre los que hay una amplia selección, característica que ha atraído a muchos de los usuarios actuales del navegador.11
Firefox es un navegador multiplataforma y está disponible en varias versiones de Microsoft Windows, Mac OS X, GNU/Linux y algunos sistemas basados en Unix.12 Su código fuente es software libre, publicado bajo una triple licencia GPL/LGPL/MPL.13
que es mozilla seabird
El terminal ofrecería una pantalla que rompe con la estética habitual, al no ser rectangular del todo, traería además un picoproyector que convertiría el dispositivo en un pequeño centro multimedia y además presentaría una interfaz humana mediante infrarojos, proyectando un teclado virtual en el aire.
El SeaBird ofrecería también Bluetooth y un manos libres que iría escondido en la carcasa del dispositivo, que haría las funciones de ratón 3D para manejarse sobre la pantalla.
Lo mejor es que veáis el vídeo del diseño, seguro que no os dejará indiferentes:Os presentamos el concepto de teléfono móvil que han creado en Mozilla Labs en su apartado Concept Series. Bautizado como Seabird, consiste en un diseño de un smartphone con atractivas prestaciones y funciones nunca vistas en un terminal actual. El autor de la iniciativa ha sido Billy May, que también ha gozado de apoyo y colaboración de la comunidad Mozilla en el diseño.
El SeaBird ofrecería también Bluetooth y un manos libres que iría escondido en la carcasa del dispositivo, que haría las funciones de ratón 3D para manejarse sobre la pantalla.
Lo mejor es que veáis el vídeo del diseño, seguro que no os dejará indiferentes:Os presentamos el concepto de teléfono móvil que han creado en Mozilla Labs en su apartado Concept Series. Bautizado como Seabird, consiste en un diseño de un smartphone con atractivas prestaciones y funciones nunca vistas en un terminal actual. El autor de la iniciativa ha sido Billy May, que también ha gozado de apoyo y colaboración de la comunidad Mozilla en el diseño.
martes, 28 de septiembre de 2010
como hacer dinero en un blog
otivado por Hacer Dinero de tu Blog, un articulo editorial escrito por el colaborador del Washington Post Mike Peed, quisiera compartir mis propios descubrimientos personales y humildes recomendaciones de cómo mejor monetizar el contenido online al mismo tiempo que mantienes tu sitio libre de toda forma de publicidad interruptiva (banners, ventanas emergentes, anuncios centellantes, etc.).
Hace un tiempo, tal cual lo había prometido, removí todos los banners remanentes y promoboxes de los auspiciantes que aparecían en mi mini-red, dado que lo que estará generando ganancias lo hará sin utilizar ningún tradicional mensaje promocional interruptivo del tipo en-tu-cara. Como lo he escrito claramente, el camino a la exitosa promoción de anuncios online realmente es otro.
Pero esos son los únicos efectivos canales que tu deberías considerar seriamente para incrementar la sustentabilidad y potencial de ganancia de tu empresa de micro-edición. Si se utiliza inteligentemente cada una de esas puede ayudar a cualquier editor online serio a convertir su sitio de noticias de una pasión part-time a un negocio serio y competitivo.
No lo puedes hacer de la noche a la mañana, pero con suficiente olfato, paciencia y dedicación puedes hacer que el buen contenido se pague por si mismo y algo más.
Hace un tiempo, tal cual lo había prometido, removí todos los banners remanentes y promoboxes de los auspiciantes que aparecían en mi mini-red, dado que lo que estará generando ganancias lo hará sin utilizar ningún tradicional mensaje promocional interruptivo del tipo en-tu-cara. Como lo he escrito claramente, el camino a la exitosa promoción de anuncios online realmente es otro.
Pero esos son los únicos efectivos canales que tu deberías considerar seriamente para incrementar la sustentabilidad y potencial de ganancia de tu empresa de micro-edición. Si se utiliza inteligentemente cada una de esas puede ayudar a cualquier editor online serio a convertir su sitio de noticias de una pasión part-time a un negocio serio y competitivo.
No lo puedes hacer de la noche a la mañana, pero con suficiente olfato, paciencia y dedicación puedes hacer que el buen contenido se pague por si mismo y algo más.
cuales son las redes sociales
Las redes sociales son estructura sociales compuestas de grupos de personas , las cuales están conectadas por uno o varios tipos de relaciones, tales como amistad, parentesco, intereses comunes o que comparten conocimientos.
El análisis de redes sociales estudia esta estructura social aplicando la Teoría de Grafos e identificando las entidades como "nodos" o "vértices" y las relaciones como "enlaces" o "aristas". La estructura del grafo resultante es a menudo muy compleja. Como se ha dicho, puede haber muchos tipos de lazos entre los nodos. La investigación multidisciplinar ha mostrado que las redes sociales operan en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en este caso de Redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias.
En su forma más simple, una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes "sociocéntricas" o "completas". Otra opción es identificar la red que envuelve a una persona (en los diferentes contextos sociales en los que interactúa); en este caso se habla de "red personal".
La red social también puede ser utilizada para medir el capital social (es decir, el valor que un individuo obtiene de los recursos accesibles a través de su red social). Estos conceptos se muestran, a menudo, en un diagrama donde los nodos son puntos y los lazos, líneas.
El análisis de redes sociales estudia esta estructura social aplicando la Teoría de Grafos e identificando las entidades como "nodos" o "vértices" y las relaciones como "enlaces" o "aristas". La estructura del grafo resultante es a menudo muy compleja. Como se ha dicho, puede haber muchos tipos de lazos entre los nodos. La investigación multidisciplinar ha mostrado que las redes sociales operan en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en este caso de Redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias.
En su forma más simple, una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes "sociocéntricas" o "completas". Otra opción es identificar la red que envuelve a una persona (en los diferentes contextos sociales en los que interactúa); en este caso se habla de "red personal".
La red social también puede ser utilizada para medir el capital social (es decir, el valor que un individuo obtiene de los recursos accesibles a través de su red social). Estos conceptos se muestran, a menudo, en un diagrama donde los nodos son puntos y los lazos, líneas.
que es mejor twitter o facebook
Se ha realizado un encuesta por parte de Abrams Research a unos 200 especialistas en Social Media y los datos son muy interesantes para todos los marketers. Y es que, según revelan los datos de la encuesta, Facebook no está entre los favoritos para los especialistas de comunicación por internet, o al menos eso dice el 32,2%.
Además un porcentaje mayor cree que es más recomendable pagar por una campaña en Twitter (39,6%) que en Facebook (15,3%). Al momento de responder el porqué de esta singular preferencia, la respuesta era obvia:
Además un porcentaje mayor cree que es más recomendable pagar por una campaña en Twitter (39,6%) que en Facebook (15,3%). Al momento de responder el porqué de esta singular preferencia, la respuesta era obvia:
como sre libera un soniy eriscsson
Las compañias no te proporcionan el codigo de desbloqueo de tu terminal, pasado el tiempo de contrato estipulado, por lo cual quedas atado a esa compañia.
Que te liberen el movil es un derecho, ya que ellos estan en la obligacion de proporcionarte los medios para liberar el movil pasado ese tiempo, por ello te explicamos como liberar casi cualquier sony ericson.
Esto es totalmente legal, siempre que hayas cumplido el contrato de uso del movil con tu compañia.
Que te liberen el movil es un derecho, ya que ellos estan en la obligacion de proporcionarte los medios para liberar el movil pasado ese tiempo, por ello te explicamos como liberar casi cualquier sony ericson.
Esto es totalmente legal, siempre que hayas cumplido el contrato de uso del movil con tu compañia.
llamado particula de dios
El bosón de Higgs, vulgarmente llamado la partícula de Dios, es una esencia experimental hipotética que ha sido pensada por la física, pero que aún no ha dejado de ser más que un sueño, pues no ha sido identificada. Esta partícula sería la responsable de la formación de la masa en otras elementales. La importancia de su existencia radica en un posible desarrollo práctico de la formación de la masa, que hasta el momento no supera la teoría, pensada por el mismo Higgs, allá en los años sesenta.
Su nombre vulgar deriva de las suposiciones de autores de ficción que manipulan este hecho y lo relacionan con los mitos religiosos de la creación. La idea de prescindir de la asistencia divina para la creación resulta bastante tentadora, pero de ninguna manera es la prioridad; hasta el momento la comunidad científica no ha acabado de explicar más que por teorías los momentos precisos donde todo comenzó: La teoría del Big Bang y sus momentos posteriores donde todo ocurrió.
Pero lo trascendental del asunto es que los estudios se hallan avanzados a un nivel de osadía sin precedentes. La Humanidad asiste al más ambicioso proyecto imaginado. Descubrir la partícula divina o el bosón de Higgs, podría modificar o incentivar o favorecer el desarrollo de nuevas tecnologías aplicadas
Su nombre vulgar deriva de las suposiciones de autores de ficción que manipulan este hecho y lo relacionan con los mitos religiosos de la creación. La idea de prescindir de la asistencia divina para la creación resulta bastante tentadora, pero de ninguna manera es la prioridad; hasta el momento la comunidad científica no ha acabado de explicar más que por teorías los momentos precisos donde todo comenzó: La teoría del Big Bang y sus momentos posteriores donde todo ocurrió.
Pero lo trascendental del asunto es que los estudios se hallan avanzados a un nivel de osadía sin precedentes. La Humanidad asiste al más ambicioso proyecto imaginado. Descubrir la partícula divina o el bosón de Higgs, podría modificar o incentivar o favorecer el desarrollo de nuevas tecnologías aplicadas
navegadores de internet mas utilizado
Mozilla Firefox
Este es un navegador libre, de código abierto y multiplataformas. Firefox es el navegador web que más cerca le sigue en popularidad a Internet Explorer. Es desarrollado por Mozilla Corp. junto con miles de voluntarios de todo el mundo, quienes crean plugins para este. Posiblemente esto último sea su mayor ventaja, pues existen miles de herramientas muy útiles que cualquier usuario puede incorporar fácilmente al navegador Firefox. Firefox puede ejecutarse en Windows, Mac, FreeBSD, Linux, BeOS, OSX y muchos más.
• Opera
Opera es un muy buen navegador web desarrollado en Noruega. Opera fue de los primeros navegadores en utilizar navegación por pestañas, además en actuales versiones soporta BitTorrents, administrador de correo electrónico, de grupos de noticias, etc.
Microsoft Internet Explorer
Este es un navegador libre, de código abierto y multiplataformas. Firefox es el navegador web que más cerca le sigue en popularidad a Internet Explorer. Es desarrollado por Mozilla Corp. junto con miles de voluntarios de todo el mundo, quienes crean plugins para este. Posiblemente esto último sea su mayor ventaja, pues existen miles de herramientas muy útiles que cualquier usuario puede incorporar fácilmente al navegador Firefox. Firefox puede ejecutarse en Windows, Mac, FreeBSD, Linux, BeOS, OSX y muchos más.
• Opera
Opera es un muy buen navegador web desarrollado en Noruega. Opera fue de los primeros navegadores en utilizar navegación por pestañas, además en actuales versiones soporta BitTorrents, administrador de correo electrónico, de grupos de noticias, etc.
Microsoft Internet Explorer
- Este navegador es desarrollado por Microsoft y es el más utilizado en el mundo, probablemente porque está integrado al sistema operativo Windows también de Microsoft. También es el navegador más cuestionado, especialmente en su seguridad, pero también se cuestiona su lentitud para incorporar herramientas que otros navegadores tienen hace años. De todas maneras, a partir de su versión 7.x, ha incorporado navegación por pestañas, soporte para RSS, filtro de phishing, etc.
- Netscape
Suscribirse a:
Entradas (Atom)