jueves, 20 de mayo de 2010







lo nuevo en tecnología celular totalmente operativo tecnología venezolana con software libre






Ventajas y desventajas de Windows XP

Starter Edition

Lanzado esta semana en América Latina con versiones en lengua española y portugués, esta nueva versión de Windows ofrece las mismas funcionalidades que las de su hermano mayor (XP Home) aunque limitadas en algunos aspectos. Esta enfocado a países en desarrollo y su precio es mucho más economico lo que permite a los ensambladores y fabricantes incorporar esta versión del SO sin que su precio incremente de manera importante el precio del ordenador.


Noticias relacionadas


Enfocado a principiantes y destinado a ser distribuido exclusivamente a través de nuevos equipos, Windows Starter Edition impide a sus usuarios, por ejemplo, abrir más de tres programas a la vez, conectarse a redes hogareñas o corporativas ni tampoco crear distintos perfiles de usuarios en el mismo equipo.

Requisitos de hardware

A diferencia de la versión copleta de XP Home, los requisitos de hardware de esta versión del SO son singularmente más bajas. Con 64 MB y un procesador operando a 232 MHz ya podemos ejecutarlo sin ningún tipo de problema.

Curiosamente, las limitaciones de hardware no vendrán por abajo (como es habitual entre los fabricantes de sistemas operativos) sino por arriba. Es decir, si el ordenador es demasiado potente es posible que Windows Starter Edition no funcione correctamente o insista en no ejecutarse. Esta situación es debida a que la versión esta pensada para equipos de gama baja y se desea evitar que se instale en equipos con una performance elevada y cuyas necesidades quedan resueltas perfectamente por las dos versiones actuales de XP: Home y Pro.

El tope establecido por Microsoft es 256 MB de Ram y HD de 80 GB. Tampoco funcionará con los Pentium clásicos de Intel o Athlon de AMD.





Prestaciones limitadas

Las limitaciones más importantes de esta versión en relación con XP Home son las siguientes:


* Limitaciones de actualización de Hardware.
* Resolución máxima de pantalla permitida: 1024 x 768 pixeles.
* No permite actualizar el sistema (no se puede hacer un upgrade a XP Home o Profesional)
* Sólo se pueden abrir 3 programas a la vez con 3 ventanas de cada programa. Por ejemplo, sólo se permiten 3 conversaciones simultáneas del Messenger.
* No se pueden compartir recursos (por ejemplo una impresora).
* No hay posibilidad de conectarse en red.
* No pueden crearse perfiles de distintos usuarios
* No permite crear una contraseña de protección del sistema.

Principales ventajas

* El tour de inicio al Wndows XP Starter es más detallado.
* Cuenta con varios videos de introducción en castellano para el usuario principiante. Se puede aprender desde como usar el Mouse hasta saber lo que es un Firewall.
* Tiene una gran cantidad de tutoriales.
* Viene con 3 wallpapers del país de destino. El protector de pantalla es la bandera nacional.
* Opción de configuración automática para el PC
* No viene con CD de instalación o de recuperación. El Starter posee una imagen en el disco rígido de la nueva computadora.
* Incluye los programas clásicos y habituales de Windows en versiones integras pero limitadas de acuerdo a las prestaciones anteriormente reseñadas: Paint, Wordpad, Internet Explorer, Outlook Express, Windows Media Player, Windows Messenger 4.7, Service Pack 2.



: Ventajas y desventajas del Windows XP

En este artículo os hablo sobre un sistema operativo que actualmente mucha gente utiliza en sus casas y del que hay que conocer algunos detalles para evitar problemas o sacar provecho de sus ventajas. Empezando con las desventajas de este sistema operativo, nos encontramos con una instalación bastante lenta si tenemos un lector de 24X, aunque si tenemos un lector de 52X la instalación es un poco más ágil y ya hablamos de unos 30 minutos para que el sistema operativo este listo para ser utilizado.

Incorpora un mejorado sistema de kill que está muy trabajado (este sistema consiste en que si una aplicación se te queda bloqueada el sistema pueda cerrarla completamente sin que todo el sistema operativo corra peligro de estabilidad). Aunque lo único que es un poco molesto es la ventana que te sale una y otra vez para preguntarte si quieres dar parte del problema a Microsoft , pero lógicamente esto se puede configurar para que no vuelva a salir.

Las ejecuciones del Windows XP son mucho más rápidas si tenemos un procesador de última generación, ya que muchas veces este sistema operativo es instalado en ordenadores con poca memoria y la efectividad de este sistema operativo se ve reducida.

Más cosas el Windiws XP te quita un 20 % de ancho de banda cuando te conectas a Internet, pero esto no es problema para los que tienen ADSL u otro tipo de conexión, sin embargo presenta un serio problema para aquellos que tiene una conexión de 56K.

Este sistema operativo crea un punto de restaEn este artículo os hablo sobre un sistema operativo que actualmente mucha gente utiliza en sus casas y del que hay que conocer algunos detalles para evitar problemas o sacar provecho de sus ventajas.uración cada vez que instales un programa o hagas un cambio en Windows, y así cada vez que haya un error o no te funcione bien por haber instalado un programa, vuelves atrás y lo restauras desde el punto en que te funcionaba correctamente y te funciona perfectamente de nuevo, sin tener que estar formateando ni desinstalando programas.

Las ventajas y desventajas de este sistema operativo son muchas más pero sólo he mencionado algunas, si quereis saber algo más sobre este sistema podeis buscarlo en internet y encontrareis muchas cosas.

Bueno he llegado a la conclusión de que este sistema operativo debe ser utilizado por aquellos que tengan un ordenador con bastante memoria y que utilice para navegar en internet ADSL, de lo contrario los problemas que puede llegar a dar el Windows XP en un ordenador de última generación, en uno en el que no cumpla los requisitos necesarios estos problemas se triplicarán y obligarán a el cliente a formatear el disco duro.

sábado, 10 de abril de 2010

LA CONTAMINACION EN EL MUNDO.
















































La contaminación en el mundo como influyente del calentamiento global

La contaminación es cualquier sustancia o forma de energía que puede provocar algún daño o desequilibrio (irreversible o no) en un ecosistema, en el medio físico o en un ser vivo. Es siempre una alteración negativa del estado natural del medio ambiente, y por tanto, se genera como consecuencia de la actividad humana.
Para que exista contaminación, la sustancia contaminante deberá estar en cantidad relativa suficiente como para provocar ese desequilibrio. Esta cantidad relativa puede expresarse como la masa de la sustancia introducida en relación con la masa o el volumen del medio receptor de la misma. Este cociente recibe el nombre de concentración.
Los agentes contaminantes tienen relación con el crecimiento de la población y el consumo (combustibles fósiles, la generacion de basura, desechos industriales, etc.), ya que, al aumentar éstos, la contaminación que ocasionan es mayor.
Por su consistencia, los contaminantes se clasifican en sólidos, líquidos y gaseosos. Se descartan los generados por procesos naturales, ya que, por definición, no contaminan.
Los agentes sólidos están constituidos por la basura en sus diversas presentaciones. Provocan contaminación del suelo, del aire y del agua. Del suelo porque produce microorganismos y animales dañinos; del aire porque produce mal olor y gases tóxicos, y del agua porque la ensucia y no puede utilizarse.
Los agentes líquidos incluyen las aguas negras, los desechos industriales, los derrames de combustibles derivados del petróleo, los cuales dañan básicamente el agua de ríos, lagos, mares y océanos, y con ello provocan la muerte de diversas especies.
Los agentes gaseosos incluyen la combustión del petróleo (óxido de nitrógeno y azufre) y la quema de combustibles como la gasolina (que libera monóxido de carbono), la basura y los desechos de plantas y animales.
Todos los agentes contaminantes provienen de una fuente determinada y pueden provocar enfermedades respiratorias y digestivas. Es necesario que la sociedad humana tome conciencia del problema.
Se denomina contaminación atmosférica o contaminación ambiental a la presencia en el ambiente de cualquier agente (físico, químico o biológico) o bien de una combinación de varios agentes en lugares, formas y concentraciones tales que sean o puedan ser nocivos para la salud, para la seguridad o para el bienestar de la población, o que puedan ser perjudiciales para la vida vegetal o animal, o que impidan el uso habitual de las propiedades y lugares de recreación y el goce de los mismos. La contaminación ambiental es también la incorporación a los cuerpos receptores de sustancias sólidas, líquidas o gaseosas o de mezclas de ellas, siempre que alteren desfavorablemente las condiciones naturales de los mismos o que puedan afectar la salud, la higiene o el bienestar del público.
El Blacksmith Institute, una organización no gubernamental que monitorea la contaminación, realizó una lista de los países más contaminados del mundo, en la que figuran: Azerbaiján, China, India, Rusia, Ucrania y Zambia.
Efectos
Expertos en salud ambiental y cardiólogos de la Universidad de California del Sur acaban de demostrar por primera vez lo que hasta ahora era apenas una sospecha: la contaminación ambiental de las grandes ciudades afecta la salud cardiovascular. Se comprobó que existe una relación directa entre el aumento en la concentración de las partículas contaminantes del aire de la ciudad y el engrosamiento de la pared interna de las arterias (la llamada "íntima media"), que es un indicador comprobado de la arteriosclerosis.
El efecto persistente de la contaminación del aire respirado, en un proceso silencioso de años, conduce finalmente al desarrollo de afecciones cardiovasculares agudas, como el infarto. Al inspirar partículas ambientales con un diámetro menor de 2,5 micrómetros, ingresan en las vías respiratorias más pequeñas y luego irritan las paredes arteriales. Los investigadores hallaron que por cada aumento de 10 microgramos por metro cúbico de esas partículas, la alteración de la pared íntima media de las arterias aumenta un 5,9 por ciento. El humo del tabaco y el que en general proviene del sistema de escape de los automóviles produce la misma cantidad de esas partículas. Normas estrictas de aire limpio contribuirían a una mejor salud con efectos en gran escala.
Uno más de los efectos es el debilitamiento de la capa de ozono, que protege a los seres vivos de la radiación ultravioleta del sol, debido a la destrucción del ozono estratosférico por cloro y bromo procedentes de la contaminación. El efecto invernadero está acentuado por el aumento de la concentración de CO2 atmosférico y otros gases de efecto invernadero como, por ejemplo, el metano.
Medidas locales
• Crear conciencia ciudadana.
• No quemar ni talar plantas.
• Colocar la basura en los lugares apropiados.
• Regular el servicio de aseo urbano.
• Controlar el uso de fertilizantes y pesticidas.
• Crear vías de desagüe para las industrias que no lleguen a los mares o ríos utilizados para el servicio o consumo del ser humano o de los animales.
• Controlar los derrames accidentales de petróleo.
• Controlar los relaves mineros.
• Reciclar objetos (darles un nuevo uso).
• Tomar y generar conciencia de lo que está sucediendo.
• Realizar campañas de apoyo.
• Evitar el uso de aerosoles.
• Tener sentido de responsabilidad.
Clasificación de los contaminantes
• Contaminantes no degradables: Son aquellos contaminantes que no se descomponen por procesos naturales. Por ejemplo, son no degradables el plomo y el mercurio.
La mejor forma de tratar los contaminantes no degradables (y los de degradación lenta) es por una parte evitar que se arrojen al medio ambiente y por otra reciclarlos o volverlos a a utilizar. Una vez que se encuentran contaminando el agua, el aire o el suelo, tratarlos, o eliminarlos es muy costoso y, a veces, imposible.
• Contaminantes de degradación lenta o persistente: Son aquellas sustancias que se introducen en el medio ambiente y que necesitan décadas o incluso a veces más tiempo para degradarse. Ejemplos de contaminantes de degradación lenta o persistente son el DDT y la mayor parte de los plásticos.
• Contaminantes degradables o no persistentes: Los contaminantes degradables o no persistentes se descomponen completamente o se reducen a niveles aceptables mediante procesos naturales físicos, químicos y biológicos.
• Contaminantes biodegradables: Los contaminantes químicos complejos que se descomponen (metabolizan) en compuestos químicos más sencillos por la acción de organismos vivos (generalmente bacterias especializadas) se denominan contaminantes biodegradables. Ejemplo de este tipo de contaminación son las aguas residuales humanas en un río, las que se degradan muy rápidamente por las bacterias, a no ser que los contaminantes se incorporen con mayor rapidez de lo que
• lleva el proceso de descomposición


EL CALENTAMIENTO GLOBAL:

El primero en manifestar un interés por la materia fue Svante August Arrhenius, quien en 1903 publicó Lehrbuch der Kosmischen Physik (Tratado de física del Cosmos)[20] que trataba por primera vez de la posibilidad de que la quema de combustibles fósiles incrementara la temperatura media de la Tierra. Entre otras cosas calculaba que se necesitarían 3000 años de combustión de combustibles para que se alterara el clima del planeta, bajo la suposición que los océanos captarían todo el CO2 (Actualmente se sabe que los oceanos han absorbido un 48% del CO2 antropogénico desde 1800)[21] Arrhenius estimó el incremento de la temperatura del planeta cuando se doblara la concentración de dióxido de carbono de la atmósfera. Arrhenius eventualmente calculó este valor en 1,6 Centígrados sin vapor de agua en la atmósfera y 2,1 °C con vapor presente. Estos resultados están dentro de los parámetros generalmente aceptados en el presente.[22] Arrhenius otorgaba una valoración positiva a este incremento de temperatura porque imaginaba que aumentaría la superficie cultivable y que los países más septentrionales serían mas productivos.


Concentración de CO2 atmosférico medido en el observatorio de Mauna Loa: Curva de Keeling.En las décadas siguientes las teorías de Arrhenius fueron poco valoradas, pues se creía que el CO2 no influía en la temperatura del planeta y el efecto invernadero se atribuía exclusivamente al vapor de agua. Sin embargo 35 años después de que Arrhenius publicara su teoría, Guy S. Callendar (ingeniero británico especialista en vapor) publicó, empezando en 1938, varios ensayos[23] en los que que corregía algunas estimaciones realizadas por Arrhenius, como la capacidad de los océanos para absorber CO2 y, a partir de un incremento observable de aprox medio Grado Fahrenheit (aprox 0,275 °C) entre 1880 y 1934; Callender estimó que el incremento promedio en la temperatura era 0,005 °C por año en ese período (actualmente se estima que en la segunda mitad del siglo XX se ha producido un incremento de 0,013 °C al año (IPCC, 2007, p. 30).). Callender argumentaba también que la actividad humana había incrementado el dióxido de carbono en la atmósfera en alrededor de 10% desde el comienzo del siglo. Esto revivió la sugerencia de Arrhenius y es conocido como “Efecto Callendar”.[24]

Entre otros, Roger Levelle -director del Scripps Institution of Oceanography, en California- creía que la sugerencia de Callendar era implausible: cualquier "exceso" de CO2 atmosférico seria -en su opinión- absorbido por procesos naturales. Esto dio origen al comienzo de un debate científico. Eventualmente, Charles D. Keeling, trabajando bajo la dirección de Levelle y en el marco del Año Geofísico Internacional, llevó a cabo una serie de medidas -entre 1957 y 1959- en sitios remotos y viento arriba de sitios poblados. (Keeling usaba datos de una estación en Mauna Loa y otra en la Antártica) - durante los dieciocho meses del año geofísico. Los resultados fueron claros y negativos para la posición de Levelle, mostrando sin dudas que no solo había habido un incremento del dióxido de carbono atmosférico en relación al siglo XIX, sino además que incluso había habido un incremento durante el periodo de las mediciones mismas.[25]

Un poco antes, la Organización Meteorológica Mundial ya había iniciado diversos planos de seguimiento, que tenían como objetivo, entre otras cosas, de calcular los niveles de CO2 en la troposfera.

Esas observaciones fueron facilitadas por el desarrolló -en los años cuarenta- de la espectrofotometría de infrarrojos, que ha permitido conocer que el CO2 absorbe la luz de manera distinta al vapor de agua, incrementando notablemente el efecto invernadero. Todo esto fue resumido por Gilbert Plass en el año 1955.

Keeling continuo por otros cuarenta años sus observaciones. Esas demostraron continua y repetidamente la corrección de su observación inicial. Keeling estableció que, sin importar donde se tomaran las medidas -ya sea ciudades o campos, valles o montes- la medida promedio del CO2 atmosférica es la misma, con leves variaciones de temporada (el promedio es más alto en el invierno del hemisferio norte) y que el incremento promedio es 1.5 partes por millón por año. Estos resultados permanecen sin cuestionamiento científico hasta el presente[26]


Predicciones basadas en diferentes modelos del incremento de la temperatura media global respecto de su valor en el año 2000.En 1974, aceptadas ya las hipótesis científicas, la OMM decidió crear un equipo de expertos sobre el cambio climático. Así en 1985 tuvo lugar la conferencia de Villach (Austria), donde las Naciones Unidas y el Consejo Internacional para el Medio Ambiente concluyeron que para finales del siglo XXI se podría producir un aumento en las temperaturas de entre 1,5 y 4,5 °C y un ascenso del nivel del mar entre 0,2 y 1,4 m[cita requerida]

El revuelo social que produjeron todos estos estudios facilitó que en 1988 se fundara el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC), que en 1990, concluyo después de su primera reunión[cita requerida] que de seguir con el ritmo actual de emisiones de gases de efecto invernadero, cabría esperar un aumento de 0,3 °C por decenio durante el próximo siglo (mayor que el producido durante los últimos 10.000 años).[cita requerida] En 1992 se celebró en Río de Janeiro la Conferencia de Naciones Unidas sobre el Medio Ambiente y el Desarrollo, también conocida como la Cumbre de la Tierra, donde más de 150 países acudieron y se logró aprobar la Convención Marco sobre el Cambio Climático para tratar de estabilizar las emisiones de gases de efecto invernadero a un nivel aceptable.

En 1997 se comenzó a redactar el protocolo de Kioto sobre el cambio climático[27] cuyo objetivo era reducir las emisiones de los principales gases de efecto invernadero: dióxido de carbono, metano, óxido nitroso, hexafluoruro de azufre, hidrofluorocarbonos, perfluorocarbonos. Se justificó no incluir el vapor de agua entre los gases de efecto invernadero considerados.[cita requerida] Su redacción finalizó en 1998 aunque no entró en vigor hasta noviembre de 2004 cuando fue ratificado por Rusia.

Tras el tercer informe del IPCC,[28] se consideró la necesidad de un nuevo protocolo más severo y con la ratificación de más países aparte del G77. Por esta razón, en 2005 se reunieron en Montreal todos los países que hasta el momento habían ratificado el protocolo de Kioto y otros países responsables de la mayoría de las emisiones de gases de efecto invernadero, incluyendo Estados Unidos, China e India. La negociación en Montreal proveía la redacción de unas bases para la futura negociación de un nuevo protocolo que entraría en vigor en 2012[cita requerida], fecha de caducidad del actual protocolo. Durante la reunión, varios países pusieron objeciones y retrasaron el pre-acuerdo (es el caso de Estados Unidos o Rusia) pero después de retrasar algunos días el final de la negociación se llegó a un pre-acuerdo.[29]

En Bali entre el 3 y el 13 de diciembre de 2007 se reanudaron las negociaciones y aunque no se fijaron límites para los gases de efecto invernadero, se alcanzó un acuerdo[30] que, entre otras cosas, incentivaba la distribución de energías renovables entre los países en vías de desarrollo para que estos no basaran su crecimiento económico en la quema de combustibles fósiles.[31]

El ex secretario general de la ONU, Kofi Annan, aboga por una «justicia climática» al pedir a los contaminadores que paguen los daños que causan al clima, para que los pobres no se vean más perjudicados[32]

Efectos potenciales [editar]Artículo principal: Efectos potenciales del calentamiento global
Muchas organizaciones (tanto públicas como privadas, incluyendo gobiernos y personas individuales) están preocupados que los efecto que el calentamiento global puede producir sean profundamente negativos, incluso catastróficos tanto a nivel mundial como en regiones vulnerables especificas. Esos efectos incluyen no solo el medio ambiente sino repercusiones económicas y biológicas (especialmente en la agricultura) que a su vez podrían afectar el bienestar general de la humanidad.[33] [34] Por ejemplo, un informe del Centro de Seguridad Nacional de USA advierte que: “en los próximos 30 o 40 años va a haber guerras por agua, una creciente inestabilidad causada por hambruna, enfermedades y la elevación de los niveles del mar
y olas de refugiados. “El caos resultante será un ‘caldo de cultivo’ para disturbios civiles, genocidio y el crecimiento del terrorismo”[35] y Javier Solana ha sugerido: “El cambio climático también causa graves riesgos políticos y de seguridad que afectan directamente a los intereses europeos. Esa es la razón por la que necesitamos para hacer frente a estos juntos, como europeos.”[36]

Ciertos fenómenos, como la disminución de los glaciares, la elevación del nivel de los mares y los cambios meteorológicos se han considerado consecuencias del calentamiento global que pueden influir en las actividades humanas y en los ecosistemas. Algunas especies pueden ser forzadas a emigrar de sus hábitats para evitar su extinción debido a las condiciones cambiantes, mientras otras especies pueden extenderse. Pocas ecorregiones pueden esperar no resultar afectadas.(Para todo lo anterior, ver Revista Ecosistemas: Los efectos biológicos del cambio climático (Resumen de la puesta en común que un grupo de alumnos hicieron para un curso de doctorado del programa "Cambio global y desarrollo sostenible" de la Universidad de Alcalá)


Elevación del nivel de los mares, medido en 23 estaciones fijas, entre 1900 y 2000.Otro motivo de gran preocupación es la elevación del nivel de los mares. Los niveles de los mares se están elevando entre 1 y 2 centímetros por decenio, a la vez que se agudizan los fenómenos climáticos extremos, y algunas naciones isleñas del Océano Pacífico, como Tuvalu, ya están trabajando en los detalles de una eventual evacuación.[37] El calentamiento global da lugar a elevaciones del nivel marino debido a que el agua de los mares se expande cuando se calienta, además de que se produce un aumento de la cantidad de agua líquida procedente de la reducción de los glaciares de montaña y se teme un decrecimiento de los casquetes glaciares. En palabras del TAR del IPCC:

Se prevé que el nivel medio global del mar se elevará entre 9 y 99 cm entre 1990 y 2100. [...] y en caso de que todo el hielo de la Antártida se derritiera, el nivel del mar aumentaría 125 m.
Conforme el clima se haga más cálido la evaporación se incrementará. Esto causaría un aumento de las precipitaciones lluviosas y más erosión. El IPCC (IPCC, 2007, p. 9) pronostica un aumento de las precipitaciones en las regiones frías (latitudes altas) y en ciertas regiones tropicales lluviosas, a la vez que una reducción en las zonas secas de latitudes medias y tropicales, como la cuenca mediterránea o el nordeste brasileño. Es decir, un clima más extremo con la precipitación repartida de forma más desigual.


Anomalía de temperaturas medias en el período 1995 - 2004.El aumento de la temperatura no sigue una ley lineal, sino que presenta fluctuaciones debidas a procesos y la variabilidad natural, siendo la más notable de ellas el fenómeno de El Niño. Durante el mismo periodo las temperaturas en la superficie terrestre muestran un incremento de aproximadamente 0,15 °C por decenio,[38] que se contrarrestan en ciclos opuestos del mismo (Lean y Rind, 2008). Esto sugiere que el proceso de calentamiento podría sufrir un acelaramiento repentino[39] o que sea capaz de desencadenar cambios bruscos, anómalos y caóticos de temperatura (por ejemplo, tormentas, huracanes, sequías, etc, extremas) o incluso extremos globalizados o localizados de baja temperatura.[40] (Ver la discusión sobre la teoría del caos para ideas relacionadas.), con efectos que podrían no ser fácilmente reversibles posteriormente.

Por ejemplo, la Corriente del Atlántico Norte, que se debe a los efectos de circulación en el clima presente (ver circulación termohalina) y data de la época del deshielo de la última glaciación (hace 14.000 años). Podría ser que, conforme el clima se hace más cálido, esta corriente disminuya[41] e incluso llegue a detenerse completamente, y esto quiere decir que áreas como Escandinavia y Gran Bretaña, que son calentadas por esta corriente, podrían presentar un clima más frío, llegando incluso a sufrir una edad del hielo localizada.[42] Es necesario recordar que hace 11.000 años esa corriente sufrió una interrupción que duró 1.000 años. Esto provocó el miniperíodo glacial conocido como Dryas reciente —el nombre de una flor silvestre alpina, Dryas octopetala— que duró 900 años en el noroeste de Norteamérica y el norte de Europa.

El calentamiento global modificaría la distribución de la fauna y floras del planeta. Ello supondría la expansión de enfermedades de las que algunos de esos animales son portadores. Tal es el caso de la malaria, el dengue o la fiebre amarilla, cuyos vectores son ciertas especies de mosquitos que habitan principalmente en zonas tropicales.

El calentamiento global también podría tener efectos positivos, ya que las mayores temperaturas y mayores concentraciones de CO2 pueden mejorar la productividad de algunos ecosistemas. Los datos aportados por satélites muestran que la productividad del Hemisferio Norte se ha incrementado desde 1982. De acuerdo a cálculos de la Met Office inglesa, la producción agrícola europea podría aumentar -dadas condiciones hidrológicas óptimas- en un 25%.

Sin embargo se cuestiona (ver op. cit) el resultado general de esos efectos en relación al equilibrio económico humano norte-sur. Concretamente, si el beneficio general de ese aumento en la productividad en países que ya producen lo necesario para sus habitantes compensaría a nivel global la caída en la producción de los países áridos, semiáridos y tropicales. Por ejemplo, la producción agrícola de Pakistán podría decaer en 50%. De acuerdo a las estimaciones de la IPCC, muchos de los cultivos agrícolas que dependen de aguas de lluvia tanto en Africa como América Latina están cerca del límite de lo que pueden tolerar. Se prevén caídas generales de productividad agrícola de alrededor de 30% en esas regiones. La caída en la producción de arroz en Asia podrían llegar al 10%. En general, entre 1996 y 2003, la producción a nivel mundial de cereales se estabilizo en la región de 1800 millones de toneladas anuales. Sin embargo, a partir del 2001, y como resultado de la continuada expansión de consumo, los niveles almacenados en reserva han decaído, resultando en un falta de 93 millones de toneladas en relación a la demanda en 2003.

Adicionalmente, un incremento en la cantidad total de la biomasa producida no es necesariamente positiva, ya que puede disminuir la biodiversidad aunque florezcan un pequeño número de especies. De forma similar, desde el punto de vista de la economía humana, un incremento en la biomasa total pero un descenso en las cosechas seria una desventaja. Además, los modelos del IPCC predicen que mayores concentraciones de CO2 podrían favorecer la flora hasta cierto punto, ya que en muchas regiones temperadas los factores limitantes son el agua y los nutrientes, no la temperatura o el CO2 Tras ese punto, incluso aunque los efectos positivos del calentamiento continuasen, podría no haber ningún incremento de producción agrícola.

En el plano económico general, el Informe Stern -encargado por el gobierno británico en 2005 - pronosticó una recesión del 20% del PIB mundial debido al cambio climático, si no se tomaban una serie de medidas preventivas que, en conjunto, absorberían el 1% del PIB (Producto Interno Bruto) mundial.

Sin embargo, todo o mucho de lo anterior es materia de una controversia considerable, con los grupos ecologistas, políticos y económicos favorables alegadamente exagerando los daños posibles y los contrarios cuestionando los modelos climáticos y las consecuencias del calentamiento global. (ver, por ejemplo: Controversia del gráfico de hockey


Gráfico de palo de hockey del reporte 2001 del IPCC. Datos de Mann et al. 1999. La línea roja: Tº reconstruidas (en base a lecturas de Tº y a anchura de anillos de árboles, azul: CO2.Escepticos del calentamiento global señalan que durante los años posteriores a la Segunda Guerra Mundial se incrementó mucho la emisión de los gases de efecto invernadero, y afirman, falsamente,[43] que en la época predominó entre los especialistas la alarma por un posible oscurecimiento global o enfriamiento global a finales del siglo XX.[44] La interpretación más común del enfriamiento relativo de mediados de siglo lo atribuye al aumento en las emisiones de aerosoles claros, que amplifican el albedo, determinando un forzamiento negativo. Su reducción siguió a la sustitución de combustibles y tecnologías por otros que emiten menos de estos aerosoles, en parte por las medidas de lucha contra la contaminación urbana e industrial y la lluvia ácida en los países desarrollados, de manera que el aumento en la emisión global de aerosoles se ha frenado.

Debido a ese debate parece conveniente examinar algunos datos concretos.

Datos concretos [editar]Ciertos datos concretos recogidos de fuentes científicas ayudan a comprender el alcance del fenómeno del calentamiento global, entender sus causas y vislumbrar sus consecuencias. (para todo lo que sigue, ver también IPCC, (2007) Cambio climático 2007: Informe de síntesis.)


Temperatura media terrestre en el período 1900 - 2004. El área gris representa el intervalo de confianza de 95% derivado sobre las cinco décadas anteriores. La línea roja es el promedio de cada década.Estudios realizados, muestran que la temperatura ha incrementado a nivel mundial a partir del 1900[45] A partir de esa fecha, y década tras década, cada una es, en promedio, “más calurosa” que la anterior, proceso que parece estar acelerándose.[46]

Según un artículo publicado en el 2004, el calentamiento global podría exterminar entre el 15% y el 35% todas las especies de plantas y animales de la Tierra para el 2050.[47] Aun con anterioridad, un grupo de ecologistas había apuntado que el incremento de la temperatura amenaza ecosistemas en los cuales la raza humana depende para sobrevivir.[48] Este fenómeno ya ha empezado a hacerse sentir.[49]

Según un informe de Greenpeace,[50] el nivel del mar aumentara probablemente entre 9 (nueve) y 88 cm en el presente siglo debido al dióxido de carbono ya presente en la atmósfera y el que se prevé será producido, llevando a problemas y daños generalizados, amenazando principalmente ciudades costeras.[51] [52]

De acuerdo al Comité Científico en Estudios Antárticos, si el incremento de la temperatura fuera solo un 2% (el objetivo que se esperaba la reunión de Copenhague adoptara) el aumento del nivel del mar seria 50 centímetros en 2050. Eso es el doble de lo estimado por IPCC.[53]

De acuerdo a un estudio comisionado por las industrias de los seguros, ese incremento de solo 50 cm en el nivel del mar amenazaría un posible 28 billones de dólares de bienes en las principales ciudades costeras a nivel mundial.[54]

Sin embargo, ese incremento no es el mismo en todas partes. Por ejemplo, estudios de la U de Florida estiman que la costa atlántica de los EEUU será vera un incremento casi el doble que el promedio.[55] Como es de suponer, el impacto de tales problemas será sentido principalmente en ciudades de países menos desarrollados[56] [57]

El nivel del dióxido de carbono (CO2) en la atmósfera podría por lo menos duplicarse en los próximos 30 o 50 años a menos que una reducción substancial de emisiones tenga lugar. Consecuentemente, algunos estudios están empezando a considerar las posibles consecuencias de una cuadruplicación de los niveles atmosféricos de CO2.[58]

En tales circunstancias un incremento de 4 C en la temperatura promedio del mar no es impensable. Si ese llegara a ser el caso, el mar dejaría de ser un absorvedor de CO2 y se transformaría en un emisor[59]

De acuerdo a un informe de la IPCC[60] el incremento de temperatura sobre Groenlandia será entre una y tres veces superior el promedio mundial. Ese promedio es previsto por la IPCC como estando entre 1.4-5.8° Celsius. Se estima que incremento sostenido (sobre siglos) sobre Groenlandia de 3 Centígrados llevaría al derretimiento completo de la capa de hielo, y un incremento en el nivel del mar de alrededor de 6 a 7 metros.

En el 2000, se estimó que la aceleración del flujo del hielo en regiones de Groenlandia disminuye el volumen de su capa de hielo en 51 km³/año[61] , aunque una revaluación más reciente[62] sitúa el número en 150 km³/año. Parte del aumento se debe a una aceleración reciente de la fusión de los glaciares periféricos, y se estima que su contribución al aumento del nivel del mar ha alcanzado en 2005 un valor 0,57 ±0,1 mm/año.

Otra fuente estima que hay un concomitante aumento en la posibilidad de la estabilización, fragmentación y caída al mar de sectores la capa de hielo en la Antártica, especialmente la llamada Capa de Hielo de la Antártica Occidental. De acuerdo a la misma fuente, el derretimiento o caída al mar de la totalidad del hielo antártico podría hacer subir el nivel del mar en 62 metros. Solo la capa occidental lo puede hacer subir en 6 metros.[63]

Solo un metro de incremento haría desaparecer ciudades tales como Alejandría (op cit) y causaría graves daños a muchas otras ciudades costales.[64] y destruiría totalmente algunos estados isleños (tales como las Maldivas), arruinaría las fuentes de agua potable en muchas regiones costeras (lo que ya está sucediendo en países tales como Israel, Tailandia, China, Viet Nam, etc). Se ha calculado que solo en EEUU los daños alcanzarían el tres por ciento del Producto Nacional Bruto (156 mil millones de dólares)

Estudios posteriores sugieren que el resultado más posible de un aumento sostenido de 2 Grados centígrados será un aumento de seis metros en los niveles del mar.[65] Otros estudios sugieren que esto podría suceder más rápido que lo anticipado, debido a un sorprendente incremento en la tasa de derretimiento de los hielos antárticos y de Groenlandia[66] [67] lo que podría llevar a un derretimiento “catastrófico” (súbito)[68]

Seis metros de incremento en el nivel del mar inundarían ciudades tales como Londres, Nueva York, Washington DC, y amplias regiones a través del mundo.[69] [70]

En caso de que toda la capa de hielo de la Antártida se derritiera, el nivel del mar aumentaría aproximadamente 61 metros. (op. cit)

Teorías que intentan explicar los cambios de temperatura [editar]El clima varía por procesos naturales tanto internos como externos. Entre los primeros destacan las emisiones volcánicas, y otras fuentes de gases de efecto invernadero (como por ejemplo el metano emitido en las granjas animales). Entre los segundos pueden citarse los cambios en la órbita de la Tierra alrededor del Sol (Teoría de Milankovitch) y la propia actividad solar.

Los especialistas en climatología aceptan que la Tierra se ha calentado recientemente (el IPCC cita un incremento de 0,6 ±0,2 °C en el siglo XX). Más controvertida es la dilucidación de las posibles relaciones entre las causas del fenómeno.[71] Tampoco nadie discute que la concentración de gases invernadero ha aumentado y que la causa de este aumento es probablemente la actividad industrial durante los últimos 200 años.

También existen diferencias llamativas entre las mediciones realizadas en las estaciones meteorológicas situadas en tierra (con registros en raras ocasiones comenzados desde finales del siglo XIX y en menos ocasiones todavía de una forma continuada) y las medidas de temperaturas realizadas con satélites desde el espacio (todas comenzadas a partir de la segunda mitad del siglo XX). Estas diferencias se han achacado a los modelos utilizados en las predicciones del aumento de temperatura existente en el entorno de las propias estaciones meteorológicas debido al desarrollo urbano (el efecto llamado Isla de calor). Dependiendo del aumento predicho por estos modelos las temperaturas observadas por estas estaciones serán mayores o menores (en muchas ocasiones incluso prediciendo disminuciones de las temperaturas).[cita requerida]

Teoría de los gases invernadero [editar]
Concentración de dióxido de carbono en los últimos 417.000 años. La parte roja indica la variación a partir de 1800.La hipótesis de que los incrementos o descensos en concentraciones de gases de efecto invernadero pueden dar lugar a una temperatura global mayor o menor fue postulada extensamente por primera vez a finales del s. XIX por Svante Arrhenius, como un intento de explicar las eras glaciales. Sus coetáneos rechazaron radicalmente su teoría.

La teoría de que las emisiones de gases de efecto invernadero están contribuyendo al calentamiento de la atmósfera terrestre ha ganado muchos adeptos y algunos oponentes en la comunidad científica durante el último cuarto de siglo. El IPCC, que se fundó para evaluar los riesgos de los cambios climáticos inducidos por los seres humanos, atribuye la mayor parte del calentamiento reciente a las actividades humanas. La NAC (National Academy of Sciences: Academia Nacional de Ciencias) de Estados Unidos también respaldó esa teoría. El físico atmosférico Richard Lindzen y otros escépticos se oponen a aspectos parciales de la teoría.

Hay muchos aspectos sutiles en esta cuestión. Los científicos atmosféricos saben que el hecho de añadir dióxido de carbono CO2 a la atmósfera, sin efectuar otros cambios, tenderá a hacer más cálida la superficie del planeta. Pero hay una cantidad importante de vapor de agua (humedad, nubes) en la atmósfera terrestre, y el vapor de agua es un gas de efecto invernadero. Si la adición de CO2 a la atmósfera aumenta levemente la temperatura, se espera que más vapor de agua se evapore desde la superficie de los océanos. El vapor de agua así liberado a la atmósfera aumenta a su vez el efecto invernadero (El vapor de agua es un gas de invernadero más eficiente que el CO2 A este proceso se le conoce como la retroalimentación del vapor de agua (water vapor feedback en inglés). Es esta retroalimentación la causante de la mayor parte del calentamiento que los modelos de la atmósfera predicen que ocurrirá durante las próximas décadas. La cantidad de vapor de agua así como su distribución vertical son claves en el cálculo de esta retroalimentación. Los procesos que controlan la cantidad de vapor en la atmósfera son complejos de modelar y aquí radica gran parte de la incertidumbre sobre el calentamiento global.

El papel de las nubes es también crítico. Las nubes tienen efectos contradictorios en el clima. Cualquier persona ha notado que la temperatura cae cuando pasa una nube en un día soleado de verano, que de otro modo sería más caluroso. Es decir: las nubes enfrían la superficie reflejando la luz del Sol de nuevo al espacio. Pero también se sabe que las noches claras de invierno tienden a ser más frías que las noches con el cielo cubierto. Esto se debe a que las nubes también devuelven algo de calor a la superficie de la Tierra. Si el CO2 cambia la cantidad y distribución de las nubes podría tener efectos complejos y variados en el clima y una mayor evaporación de los océanos contribuiría también a la formación de una mayor cantidad de nubes.

A la vista de esto, no es correcto imaginar que existe un debate entre los que «defienden» y los que «se oponen» a la teoría de que la adición de CO2 a la atmósfera terrestre dará como resultado que las temperaturas terrestres promedio serán más altas. Más bien, el debate se centra sobre lo que serán los efectos netos de la adición de CO2, y en si los cambios en vapor de agua, nubes y demás podrán compensar y anular este efecto de calentamiento. El calentamiento observado en la Tierra durante los últimos 50 años parece estar en oposición con la teoría de los escépticos de que los mecanismos de autorregulación del clima compensarán el calentamiento debido al CO2

Los científicos han estudiado también este tema con modelos computarizados del clima. Estos modelos se aceptan por la comunidad científica como válidos solamente cuando han demostrado poder simular variaciones climáticas conocidas, como la diferencia entre el verano y el invierno, la Oscilación del Atlántico Norte o El Niño. Se ha encontrado universalmente que aquellos modelos climáticos que pasan estas evaluaciones también predicen siempre que el efecto neto de la adición de CO2 será un clima más cálido en el futuro, incluso teniendo en cuenta todos los cambios en el contenido de vapor de agua y en las nubes. Sin embargo, la magnitud de este calentamiento predicho varía según el modelo, lo cual probablemente refleja las diferencias en el modo en que los diferentes modelos representan las nubes y los procesos en que el vapor de agua es redistribuido en la atmósfera.

Sin embargo, las predicciones obtenidas con estos modelos no necesariamente tienen que cumplirse en el futuro. Los escépticos en esta materia responden que las predicciones contienen exageradas oscilaciones de más de un 400% entre ellas, que hace que las conclusiones sean inválidas, contradictorias o absurdas. Los ecólogos responden que los escépticos no han sido capaces de producir un modelo de clima que no prediga que las temperaturas se elevarán en el futuro. Los escépticos discuten la validez de los modelos teóricos basados en sistemas de ecuaciones diferenciales, que son sin embargo un recurso común en todas las áreas de la investigación de problemas complejos difíciles de reducir a pocas variables, cuya incertidumbre es alta siempre por la simplificación de la realidad que el modelo implica y por la componente caótica de los fenómenos implicados. Los modelos evolucionan poniendo a prueba su relación con la realidad prediciendo (retrodiciendo) evoluciones ya acaecidas y, gracias a la creciente potencia de los ordenadores, aumentando la resolución espacial y temporal, puesto que trabajan calculando los cambios que afectan a pequeñas parcelas de la atmósfera en intervalos de tiempo discretos.

Las industrias que utilizan el carbón como fuente de energía, los tubos de escape de los automóviles, las chimeneas de las fábricas y otros subproductos gaseosos procedentes de la actividad humana contribuyen con cerca de 22.000 millones de toneladas de dióxido de carbono (correspondientes a 6.000 millones de toneladas de carbón puro) y otros gases de efecto invernadero a la atmósfera terrestre cada año. La concentración atmosférica de CO2 se ha incrementado hasta un 31% por encima de los niveles pre-industriales, desde 1750. Esta concentración es considerablemente más alta que en cualquier momento de los últimos 420.000 años, el período del cual han podido obtenerse datos fiables a partir de núcleos de hielo. Se cree, a raíz de una evidencia geológica menos directa, que los valores de CO2 estuvieron a esta altura por última vez hace 40 millones de años. Alrededor de tres cuartos de las emisiones antropogénicas de CO2 a la atmósfera durante los últimos 20 años se deben al uso de combustibles fósiles. El resto es predominantemente debido a usos agropecuarios, en especial deforestación.[72]

Los gases de efecto invernadero toman su nombre del hecho de que no dejan salir al espacio la energía que emite la Tierra, en forma de radiación infrarroja, cuando se calienta con la radiación procedente del Sol, que es el mismo efecto que producen los vidrios de un invernadero de jardinería. Aunque éstos se calientan principalmente al evitar el escape de calor por convección.

El efecto invernadero natural que suaviza el clima de la Tierra no es cuestión que se incluya en el debate sobre el calentamiento global. Sin este efecto invernadero natural las temperaturas caerían aproximadamente 30 °C. Los océanos podrían congelarse, y la vida, tal como la conocemos, sería imposible. Para que este efecto se produzca, son necesarios estos gases de efecto invernadero, pero en proporciones adecuadas. Lo que preocupa a los climatólogos es que una elevación de esa proporción producirá un aumento de la temperatura debido al calor atrapado en la baja atmósfera.

Los incrementos de CO2 medidos desde 1958 en Mauna Loa muestran una concentración que se incrementa a una tasa de cerca de 1,5 ppm por año. De hecho, resulta evidente que el incremento es más rápido de lo que sería un incremento lineal. El 21 de marzo del 2004 se informó de que la concentración alcanzó 376 ppm (partes por millón). Los registros del Polo Sur muestran un crecimiento similar al ser el CO2 un gas que se mezcla de manera homogénea en la atmósfera.

Teoría de la variación solar [editar]Se han propuesto varias hipótesis para relacionar las variaciones de la temperatura terrestre con variaciones de la actividad solar, que han sido refutadas por los físicos Terry Sloan y Arnold W. Wolfendale.[73] La comunidad meteorológica ha respondido con escepticismo, en parte, porque las teorías de esta naturaleza han sufrido idas y venidas durante el curso del siglo XX.[74]


Variaciones en el ciclo solar.Sami Solanki, director del Instituto Max Planck para la Investigación del Sistema Solar, en Göttingen (Alemania), ha dicho:[75]

El Sol está en su punto álgido de actividad durante los últimos 60 años, y puede estar ahora afectando a las temperaturas globales (...) Las dos cosas: el Sol más brillante y unos niveles más elevados de los así llamados «gases de efecto invernadero», han contribuido al cambio de la temperatura de la Tierra, pero es imposible decir cuál de los dos tiene una incidencia mayor.
Willie Soon y Sallie Baliunas del Observatorio de Harvard correlacionaron recuentos históricos de manchas solares con variaciones de temperatura. Observaron que cuando ha habido menos manchas solares, la Tierra se ha enfriado (Ver Mínimo de Maunder y Pequeña Edad de Hielo) y que cuando ha habido más manchas solares, la Tierra se ha calentado, aunque, ya que el número de manchas solares solamente comenzó a estudiarse a partir de 1700, el enlace con el período cálido medieval es, como mucho, una especulación.

Las teorías han defendido normalmente uno de los siguientes tipos:

Los cambios en la radiación solar afectan directamente al clima. Esto es considerado en general improbable, ya que estas variaciones parecen ser pequeñas.
Las variaciones en el componente ultravioleta tienen un efecto. El componente UV varía más que el total.
Efectos mediados por cambios en los rayos cósmicos (que son afectados por el viento solar, el cual es afectado por el flujo solar), tales como cambios en la cobertura de nubes.
Aunque pueden encontrarse a menudo correlaciones, el mecanismo existente tras esas correlaciones es materia de especulación. Muchas de estas explicaciones especulativas han salido mal paradas del paso del tiempo, y en un artículo («Actividad solar y clima terrestre, un análisis de algunas pretendidas correlaciones», en Journal of Atmospheric and Solar-Terrestrial Physics, pág. 801-812, 2003) Peter Laut demuestra que hay inexactitudes en algunas de las más populares, notablemente en las de Svensmark y Lassen (ver más abajo).

En 1991, Knud Lassen —del Instituto Meteorológico de Dinamarca (en Copenhague)— y su colega Eigil Friis-Christensen, encontraron una importante correlación entre la duración del ciclo solar y los cambios de temperatura en el Hemisferio Norte. Inicialmente utilizaron mediciones de temperaturas y recuentos de manchas solares desde 1861 hasta 1989, pero posteriormente encontraron que los registros del clima de cuatro siglos atrás apoyaban sus hallazgos. Esta relación aparentemente explicaba, de modo aproximado, el 80% de los cambios en las mediciones de temperatura durante ese período. Sallie Baliuna, un astrónomo del Harvard-Smithsonian Center for Astrophysics (Centro Harvard-Smithsoniano de Astrofísica), se encuentra entre los que apoyan la teoría de que los cambios en el Sol «pueden ser responsables de los cambios climáticos mayores en la Tierra durante los últimos 300 años, incluyendo parte de la reciente ola de calentamiento global».

Sin embargo, el 6 de mayo de 2000 la revista New Scientist informó que Lassen y el astrofísico Peter Thejil habían actualizado la investigación de Lassen de 1991 y habían encontrado que, a pesar de que los ciclos solares son responsables de cerca de la mitad de la elevación de temperatura desde 1900, no logran explicar una elevación de 0,4 °C desde 1980:


Temperaturas promedio de temperaturas atmosféricas mundiales, CO2, atmosférico y actividad solar desde 1850. Líneas gruesas para temperatura y actividad solar representan la “regresión local” sobre 25 años promediado de los datos crudos.Las curvas divergen a partir de 1980 y se trata de una desviación sorprendentemente grande. Algo más está actuando sobre el clima. [...] Tiene las «huellas digitales» del efecto invernadero.
Posteriormente, en el mismo año, Peter Stoff y otros investigadores de Centro Hadley, en el Reino Unido, publicaron un artículo en el que dieron a conocer el modelo de simulación hasta la fecha más exhaustivo sobre el clima del siglo XX. Su estudio prestó atención tanto a los agentes forzadores naturales (variaciones solares y emisiones volcánicas) como al forzamiento antropogénico (gases invernadero y aerosoles de sulfato). Al igual que Lassen y Thejil, encontraron que los factores naturales daban explicación al calentamiento gradual hasta aproximadamente 1960, seguido posteriormente de un retorno a las temperaturas de finales del siglo XIX, lo cual era consistente con los cambios graduales en el forzamiento solar a lo largo del siglo XX y la actividad volcánica durante las últimas décadas.[76]

Sin embargo, estos factores no podían explicar por sí solos el calentamiento en las últimas décadas. De forma similar, el forzamiento antropogénico, por sí solo, era insuficiente para explicar el calentamiento entre 1910-1945, pero era necesario para simular el calentamiento desde 1976. El equipo de Stott encontró que combinando todos estos factores se podía obtener una simulación cercana a la realidad de los cambios de temperatura globales a lo largo del siglo XX. Predijeron que las emisiones continuadas de gases invernadero podían causar incrementos de temperatura adicionales en el futuro «a un ritmo similar al observado en las décadas recientes».[77]

En 2008 apareció un estudio (Lean y Rind, 2008) que reevaluaba la influencia de los fenómenos naturales en el calentamiento, dando como resultado que la actividad solar, lejos de contribuir al mismo, podrían incluso haber enfriado el clima ligeramente. Una continuación del mismo estudio que se publicará en 2009 pronostica que los ciclos esperados tanto de actividad solar como del ENSO provocarán un calentamiento más intenso durante cinco años, en contraste con los siete anteriores, donde dicha actividad lo contrarrestó