jueves, 30 de diciembre de 2010

LA VERDAD SOBRE EL 11 S (COLIN LANDER L'ESTRANGE)

COLIN LANDER L'ESTRANGE, La Verdad sobre el 11S from La Caja de Pandora on Vimeo.



Colin Lander L'Estrange
Inglaterra

Nacido en Inglaterra y criado en Pais Vasco, licenciado en Periodismo, investigador de las verdades no oficiales de la ciencia y co-organizador de los congresos de Exopolitica y Ciencia y Espiritu. Traductor y subtitulador de documentales como Energia Libre: Carrera Hacia el Punto Cero o In Lies We Trust (Confiamos en las mentiras) que ha permitido acercar estos documentales al mundo hispano-parlante. El 11/S fue un dia clave en nuestra historia contemporanea y a traves del cual se asentaron muchas decisiones en terminos geopoliticos, sociales y legislativos. Pero, ¿Que ocurrio realmente? ¿Quienes fueron los autores? ¿Que pruebas hay de que la version oficial? ¿Quién se beneficia? En esta conferencia se trataran los aspectos basicos de lo que ocurrio y se aportaran pruebas mucho mas solidas que la version oficial.

Nueva versión de ‘September Clues’ que desmonta la versión oficial sobre el 11S

Una nueva serie de 9 videos que desmonta la versión oficial de que los atentados del 11-S fueron producidos con aviones.
Subtítulos de Jesudel y davidsenzacoloranti.

El mismo autor de ‘September Clues’, Simon Shack, dejó el enlace en nuestro foro hace unos días.



















Impresionante material. Muy bien compaginado y con referencias gráficas y comparativas perfectamente explicadas. Un prolijo y detallado trabajo por parte de este profesional equipo de producción. Se puede evidenciar, por lo menos en estos nueve vídeos, la clara manipulación tanto en vídeo cómo en audio para ocultar la realidad. La figura de los aviones que al estrellarse parecen regirse por la física “cartoons”, los escenarios y fondos digitalizados, los cambios de luz en las escenas, la presencia de diferentes fuentes periodísticas extrañamente tomando las escenas desde el mismo ángulo, trayectorias de los aviones que no coinciden con el impacto, declaraciones de testigos presénciales todos pertenecientes a los medios de comunicación, sonidos falsificados e incongruencia general de imágenes, proporciones, puntos de referencias, etc., lo que señala, por lo menos en el material gráfico que observamos, un ocultamiento premeditado de pruebas y la creación de un escenario orientado para hacer pensar a la gente en un atentado terrorista cuándo bien pudo haber sido la acción de mísiles la que causó la destrucción de las torres gemelas. No había tenido antes la oportunidad de ver este material, por lo que me he quedado realmente impresionado, no sólo por la revelación que nos presentan los realizadores del vídeo, sino también por el gigantesco engaño que en su momento presentaron ante los ojos asombrados del mundo. Esto demuestra una vez más el desprecio y la indiferencia que tiene esta perversa elite por el común de los ciudadanos, no dudando un segundo en sacrificarnos para lograr sus maquiavélicos objetivos.

lunes, 6 de diciembre de 2010

LA CLAVE ESTA EN EL IÓN CALCIO. ¿Cómo podemos mejorar nuestro bienestar físico y espiritual?

Desde hace décadas, se conoce la relación existente entre los Rayos Gamma y nuestro ADN. En este sentido, nos remontamos a los estudios iniciados por el Físico Alemán W.O.Schumann en 1952.

La cuestión de la influencia entre las Resonancias Schumann (SR) y el cerebro humano, fue verificada posteriormente por el Dr.Michael König (1954), cuya Tesis Doctoral, versó precísamente sobre la relación exitente entre la conducta humana y dichas Resonancias, y posteriormente fue el Dr.Polk (1984) quien analizó detalladamente, la relación entre las tormentas solares y las Señales de Ultra-Baja Frecuencia (ULF).

Dichos espectros de ULF, interactúan de forma sistemática con el cerebro de los mamíferos, generando patrones de alteración de conducta en ellos, en la medida en que la Ionosfera cambia su composición Electromagnética. El hecho de que el ser humano sea consciente de este proceso, le permite interactuar de forma activa con las Resonancias, utilizando su dimensión mental.



Medición espectral realizada por Polk (1982), y realizada cerca de Kingston, Rhode Island, según el estudio realizado por Neil Cherry (2001) Por la Universidad Lincoln de Canterbury en Nueva Zelanda. La gráfica muestra el Pentabanda de las Resonancias Schumann.

1.-Nuestro cerebro actúa como una sofisticada antena de telecomunicaciones.

Nuestro cerebro opera satisfactoriamente utilizando señales oscilantes que son un millón de veces más pequeñas que el potencial de la membrana de las células. Los estudios de Neil (2001), detallan específicamente que el nivel de negociación electromagnética de las células se altera, ampliándose su espectro electromagnético, como si de receptores de señales se tratase. De hecho, los receptores de la membrana celular que tienen una ampitud de 10 5 V/cm interactúan con las ondas cerebrales, que tienen una amplitud de onda de 10-1 V/cm. Diversos experimentos reproducidos en laboratorio por Jenrow, Smith y Liboff (1996) demostraron que los seres humanos, reaccionamos a las señales de ULF, en diferentes rangos que van desde los 10- 7V/cm a 10-8 V/cm.




2.-El proceso de absorción de las RS y la negociación celular.

Originariamente, se pensaba que la negociación celular era una función independiente de otros procesos bioquímicos del organismo. Sin embargo, los últimos descubrimientos (Guerrero, Broers y Sang- Hoon Lee, Tsodyks y Markram, Jaffe, 2009-2010) en bioinformática, son claves en el proceso y han puesto de relieve la incuestionable coherencia interna de nuestro eficiente sistema neurotransmisor en el que se generan complejos procesos de producción y conexión de diferentes elementos químicos en las conexiones sinápticas tales como la Calmodulina, Serotonina, Glutamato, Litio (Li), Potasio (K), Sodio (Na) y el Calcio (Ca), que interactúan con las proteínas “qbits” y el ADN.




En el proceso de absorción continua de las Resonancias Schumann, juega un papel crucial el Ión de Calcio, que al estimularse de forma interna con las frecuencias generadas en la negociación,actúa como un superconductor y cambia la velocidad de transmisión de paquetes de datos “qbits” estimulando el Calcio como superconductor, e interactuando con la calmodulina y determinados codones de nuestro ADN, en función de nuestros estados de ánimo y emociones, consolidando de forma cuántica la información presente en las proteínas.




Dichos estímulos, juegan un papel crucial cuando son mantenidos a largo plazo, con una adecuada gestión de emociones que ejercen el papel de emisores-receptores en la comunicación, potenciando positiva o negativamente las transacciones.

2.1.-La Clave está en el Ión de Calcio.

Los iones de calcio Ca2+ tienen un papel fundamental en la regulación de la vida diaria de las células y en particular de las neuronas. La dinámica del calcio intracelular libre (en forma iónica) está controlada por una serie de procesos químicos y biofísicos, como la difusión y el enlace con diferentes receptores o proteinas, que actúan como almacenes de calcio o buffers, o como sensores de calcio que inician otros procesos celulares. Mientras que los buffers sólo se unen al Ca2+ por encima de una concentración crítica del mismo, y vuelven a liberarlo en el citoplasma cuando [Ca2+] se ha reducido por debajo de este valor crítico, algunas proteínas —como la calmodulina— cambian su estructura conformacional cuando se acoplan a iones de calcio (actúan como motores moleculares), para activar o modular enzimas, abrir o cerrar canales iónicos, o activar otras proteínas. Además, la [Ca2+] dentro de la célula, por ejemplo, produce la activación de ciertas corrientes iónicas de membrana como la IK(Ca) que es relevante para cierta plasticidad sináptica (facilitación) y clave en el proceso de absorción por el ADN.

El mecanismo de las reacciones biofísicas de absorción de las Resonancias Schumann, se encontró accidentalmente cuando se trataba de anaizar el efecto de éstas en el comportamiento de los Primates y los Seres Humanos al interactuar con los estímulos de las señales cerebrales. Se evidenció en el experimento que los rangos de frecuencias RS, alteraban significativamente los flujos de los Iones de Calcio en la transmisión celular. El experimento se realizó por primera vez en 1976, y fue repetido en diferentes laboratorios independientes, verificando los mismos resultados, hasta que se tomó como una evidencia científica en 1990 por Blackman. De hecho, Andrew Schwartz en la Universidad de Pittsburgh, acometía un experimento similar y obtuvo análogos resultados en 2002.

El efecto biofísico de modificación del ion de Calcio es consecuencia de la modulación de la frecuencia, y no de la intensidad de la señal, circunstancia ésta que evidencia una modificación por Resonancias, que genera reacciones no lineales en la negociación celular. Entendiendo por tales, emociones, estímulos y percepciones no sometidas a la dimensión espacio-temporal.

La absorción, genera efectos parecidos a la ingesta o inducción de determinadas sustancias externas, salvo que las producimos y controlamos mediante las emociones a nivel consciente.

Este hallazgo, explicaría muchos de los procesos autoinducidos de conexión con las realidades cuánticas, y en particular, explica de forma sistemática la canalización cuantica o conexión con las realidades trascendentes.

En los procesos de negociación, interactúan nuestras emociones, que de forma consciente actúan como un panel de control cuando suponen conductas continuas en el tiempo. La cuestión, reviste especial importancia ya que existe una especial correlación entre la relajación y el stress y los procesos de incremento de frecuencias en la inhibición/absorción de las resonancias Schumann.

El siguiente diagrama, muestra cómo la gestión de las emociones interactúa con la resonancia y los tiempos de negociación, generando diferentes estímulos-reacciones en el Hipotálamo y en la Amígdala:




Los diferentes estímulos, generan escenarios que oscilan entre la inhibición absoluta de la regeneración neuronal a la capacidad de autoregeneración de las neuronas, tanto en el hipotálamo como en la amígdala. Estos resultados son coherentes con los obtenidos por Andrew Schwartz y contrastados por Tsodyks y Markram en 2007.

2.2.-La síntesis de las proteínas por el ADN.

Todos los procesos de negociación neuronal anteriormente descritos, culminan en la síntesis de las proteínas. La activación y absorción del Litio (Li) es clave en este proceso y dicha sustancia se produce de forma natural por nuestro organismo en los estados próximos a la relajación cerebral. En los casos en los que el individuo manifiesta de forma prolongada ciclos cerebrales próximos al alfa (No superiores a 13 ciclos por segundo), hiperactiva los sensores cerebrales del hipotálamo interactuando con la amígdala, y activando así la glándula pineal que gestiona los procesos de arranque de la percepción y atención.

La meditación, la creatividad, la oración, etc. actúan como generadores de la gestión de emociones, y con el tiempo activan el proceso de absorción del Litio, así como liberando el potasio y reequilibrando el sodio en la transacción neuronal. La generación de pensamientos, emociones afectivas y positivas hacia los demás, retroalimenta el proceso, hasta el punto de modificar el ion de calcio incrementando las transacciones de paquetes de datos, los “qbits”.

El reciente hallazgo del calcio como superconductor bajo los estímulos de las resonancias electromagnéticas, en abril de 2010, es coherente con el experimento verificado por Oganov, Yanming Ma, Ying Xu en el que utilizando en un laboratorio difracción de ondas electromagnéticas, consiguen estimular los iones de calcio y catalogarlo como el mejor superconductor conocido hasta el momento.




Figura: A la izquierda el Calcio en estado normal. A la derecha la estructura excitada del Calcio por radiofrecuencia.

Sin duda, este hallazgo explicaría la interacción ya expuesta por Hameroff y Watt, respecto a la relación Ca-Calmodulina, y verifica empíricamente la posibilidad de alcanzar las velocidades transaccionales de 10 a100/ms en un nanosegundo, algo que únicamente puede conseguirse con un proceso de convergencia contínua con las Resonancias Schumann.

En 1997, un grupo de investigadores de la Universidad de Rochester, dirigidos por Kool y Guckian, pusieron de manifiesto los resultados de sus experimentos de replicación “in vitro” en los que en lugar de timina (T), utilizaban un nucleósido con una base análoga, el difluorotolueno (F).

Curiosamente, el difluorotolueno, no forma facilmente enlaces de hidrógeno, pese a tener la misma forma que la timina. El resultado fue sorprendente: La replicación fue posible, de forma que verificaron que los enlaces de hidrógeno, no eran decisivos para la replicación..

Sin embargo, las modificaciones aplicadas por Kool y Guckian consiguieron poner de relieve, que la clave de la correcta replicación de la estructura, se conseguía por resonancia magnética nuclear de una doble hélice de ADN que contenía el par A-F.

De hecho, Kool muestra la eficiente replicación de un análogo apolar de adenina, el 4-metilbenzimidazol (Z), con el análogo apolar de timina (F). En este proceso, la formación de enlaces de hidrógeno es casi imposible, y la replicacion fue más rápida que con los pares de (A-T), (C-G) tradicionales.

Por tanto la explicación hay que buscarla en la Resonancia Magnética y las estructuras iónicas de determinados elementos que actúan como superconductores al ser expuestos a ésta y ya sabemos que el Calcio lo es.

2.3.-El efecto cuántico de las proteínas en el ADN.

Todo lo anterior implica que existe una retroalimentación entre la emisión-recepción y por tanto, las Resonancias Schumann, interactúan igualmente desde dentro hacia fuera. Desde la conciencia hacia la negociación celular y el ADN.

Esta coherencia supone la capacidad de superposición cuántica de ciertas proteinas y al mismo tiempo, explicaría el esquema del desbloqueo de los codones de ADN, realizado por Yumi Kawazoe, Masahito Yamamoto en 2001.

Adicionalmente, tendríamos que:

2.3.-El efecto cuántico de las proteínas en el ADN.

Todo lo anterior implica que existe una retroalimentación entre la emisión-recepción y por tanto, las Resonancias Schumann, interactúan igualmente desde dentro hacia fuera. Desde la conciencia hacia la negociación celular y el ADN.

Esta coherencia supone la capacidad de superposición cuántica de ciertas proteinas y al mismo tiempo, explicaría el esquema del desbloqueo de los codones de ADN, realizado por Yumi Kawazoe, Masahito Yamamoto en 2001.

El esquema implicaría el siguiente proceso:






Adicionalmente, tendríamos que:





Aplicamos las fuerzas de acoplamiento dipolar entre las nubes de electrones de los átomos adyacentes o grupos moleculares. (Efecto Van Der Waals).

Y, por tanto, el modelo encaja con los experimentos de Kool y Guckian, en la medida que verificamos el nexo de enlace con la lógica del Ca, tal y como ya vimos en el enlace con el ión de Calcio, proteínas y su almacenamiento.

Por tanto la relación de almacenamiento de las proteínas sería la siguiente:




En el modelo, el Qbit, constituye por superposición el acoplamiento bipolar.

Y en efecto, la calmodulina y el calcio interactúan intercambiando cargas electromagnéticas. En este punto, la interacción de las estructuras integra moléculas complejas de aminoácidos aromáticos que replican y consolidan los paquetes de información, actuando como auténticos aceleradores de información, o semiconductores.

Las modificaciones de nuestro ADN no sólo pueden ser negativas como acostumbramos a leer en las publicaciones farmacéuticas: “Crecimiento de tumores y proliferación de virus”, sino también positivas: “Inversión de los procesos de enfermedad y estados de hipersalud e hiperlucidez.” Las emociones y su estudio, interactúan claramente en estos procesos, mediante la regulación consciente de los ciclos cerebrales. Las emociones positivas y/o negativas mantenidas en el tiempo, afectan sin duda alguna a nuestro bienestar físico y a largo plazo determinan nuestra configuración genética.

3.-¿Cómo podemos mejorar nuestra salud física y espiritual?

Tenemos la capacidad y la responsabilidad de generar bienestar a los que nos rodean aprendiendo a gestionar nuestras emociones de forma positiva.

El factor emocional es clave en la salud física, mental y espiritual. Una alimentación equilibrada y rica en nutrientes es excepcional para sentirnos bien con nosotros mismos y con los que nos rodean al igual que el ejercicio físico.

Pero igualmente debemos reflexionar sobre algunos hábitos automatizados que nos impiden la gestión satisfactoria de nuestros sentimientos más profundos. En este sentido, generar actitudes proactivas basadas en la reflexión positiva, la amabilidad, las buenas maneras, la asertividad y la espiritualidad, nos permiten activar con la constancia y el tiempo muchas de las funciones y aptitudes que permanecen dormidas en nuestro ADN.

La meditación nos ayuda a relajar los ciclos cerebrales, pero debe ir acompañada de una profunda convicción de nuestro ser como perteneciente a un Universo inteligente del que formamos parte. Es esa aceptación de la trascendencia, la que nos da accceso a la armonía.

Automatizar conductas negativas no es sano, y menos, dejarse abatir por sensaciones de negatividad o decepción. Biofísicamente, tenemos la capacidad de reconciliarnos con nosotros mismos, tomando la responsabilidad activa de la creación que es muchísimo más estimulante y sana.

El Yoga, la música, el contacto con la naturaleza y otras actividades como el deporte, son instrumentos que nos facilitan la comunicación con nuestro ser de luz. Cualquier método nos ayuda en ese sentido, siempre que no olvidemos cuál es el objetivo de nuestra existencia: Alcanzar la felicidad. Lo que científicamente estamos en condiciones de afirmar, es que existe una clara relación entre la correcta gestión de las emociones, el amor, entendido como servicio al otro y la salud, tanto física como espiritual. El estudio de los patrones de la música, los armónicos, las resonancias y las frecuencias, son claves como herramienta de trabajo.

La Psicología Cuántica Diferencial, tiene por finalidad enseñar al individuo a generar sus propios medios de resonancia con el Universo, reduciendo al máximo su dependencia de agentes externos, adicciones y automatismos insanos. La toma de conciencia del yo reconciliado con su ser de luz y feliz, es la clave de la evolución espiritual y requiere un trabajo personal que conlleva la mayor de las recompensas: La activación plena de la conciencia y la gestión eficiente del ser: Aprender a pensar, aprender a sentir y como consecuencia, aprender a comunicarnos con nosotros mismos, con los que nos rodean y con el Universo.

En el Congreso de Radiofrecuiencia y Universo Inteligente que celebrará el IRCAI el próximo día 3 de Julio en Alicante, expondremos detalladamente por primera vez una aproximación empírica transdisciplinar al estudio de la conciencia y presentaremos los últimos descubrimientos desde el análisis de las Resonancias Schumann hacia el ser humano: La relación existente con un rango diferencial de estas Resonancias, que tanto desde la Ionosfera, como desde el individuo, nos conectan con el Universo desencadenando desde dentro de éste, procesos coherentes de negociacion celular, genéticos, bioquímicos que son gestionados mediante las emociones con implicaciones en nuestra conducta, nuestra salud y nuestro proceso espiritual.

Autor: Dr.Rafael López-Guerrero.

Research Director IRCAI.(Instituto Radiofrecuencia Cuántica Avanzada Internacional).http://www.ircai.eu

Bibliografía Recomendada:

1.-Las Bases Científicas del Diferencial König-Guerrero: La Relación Ionogenomática y las Resonancias Schumann. Radiofrecuencia Cuántica Diferencial y análisis de los procesos biofísicos de la conciencia. López-Guerrero,Rafael, Dieter Broers Ernst, Betés de Toro,Mariano, Cahue Gamo,Mila. IRCAI-Departamento de Radiofrecuencia, Neurociencia, Biofísica y Psicología. IRCAISCIC20100703RLG. Junio 2010, Instituto de Radiofrecuencia Cuantica Avanzada Internacional.IRCAI.SL).

3.-El error de Descartes: Damasio, Antonio: La emoción,la razón y el cerebro humano: ISBN:84327876

4.- A mathematical model of agonist-induced propagation of calcium waves in astrocytes. Authors: Roth BJ , Yagodin SV , Holtzclaw L (ISSN: 0143-4160) (ESSN: 1532-1991)[1995 Jan; Volume: 17 (Issue: 1 )

domingo, 5 de diciembre de 2010

¿En qué quedamos? Calentamiento global por CO2 o Glaciación.¿No será que tenemos razón?

¿No será que ya no tienen por dónde argumentar? Eso parece.

Como ven, el informe CLOUD06, incomoda a la NASA, pero por otro lado, también les incomoda las perturbaciones solares y la teoría de las Tres en Raya. Les incomoda tener que reconocer que las mareas están aumentando de forma desconcertante. Les incomoda reconocer el incremento de la anomalía del Atlántico Sur, les incomoda reconocer, el adelgazamiento de la ionosfera, la ionización de las nubes,el incremento progresivo de los tornados, los sismos y las tormentas geomagnéticas.




Bueno,pues este tema si que es lo mio.LLevo años defendiendo la teoria del enfriamiento y batiendome a capa y espada por ella en foros de meteo y climatologia.Asi que aqui si que me puedo explayar y son simplemente argumentos cientificos ya que en los foros de meteo no te puedes salir de ahi,y si se te ocurre mentar algo como “Niburu”(que algo de eso estoy seguro que hay)te vetan de por vida.
vamos que nos vamos.

Debajo está un gráfico de las temperaturas de Groenlandia en los últimos 4.000 años. Los cambios son probablemente muy indicativos de los cambios de temperatura a lo largo de todo el Hemisferio Norte.

http://img145.imageshack.us/img145/9715/ojos2rb9.gif

Hace unos 1.000 años atrás las temperaturas promedio de Groenlandia eran 1º C más altas que hoy (lo que hace que nuestra preocupación por un aumento de 0,4º C sea algo ridículo).
*

Hace unos 2.100 años, eran de 2º C más altas que ahora.
*

Hace unos 3.300 años, eran de unos 3º C más altas que ahora. Dado que la información de Groenlandia se extiende varios cientos de miles de años en el pasado, esto indica que para derretir toda la capa de hielo de Groenlandia son necesarios bastante más que 3º C durante muchos miles de años más.
*

Durante casi los últimos 4.000 años las temperaturas han sido más elevadas que hoy. Más precisamente, aparte de un breve período hace 1.200 años, es sólo en los últimos 750 años que las temperaturas estuvieron en, o por debajo de lo normal. Sobre esta evidencia es más razonable suponer que el tiempo más cálido es la condición natural de la Tierra -mientras que no se puede afirmar ninguna estabilidad o consistencia en algo que está cambiando de manera constante.

Fijémonos en el aumento de la temperatura de hace unos 3.200 años. Es de alrededor de 1º C en me-nos de 50 años. Durante el Siglo 20 la temperatura ha aumentado y disminuido varias veces, en períodos bien notorios. El cambio más reciente es el aumento de 0,4º C desde 1980. El máximo fue alcanzado en 1998 y, mientras que ha fluctuado desde entonces, no ha sobrepasado esa marca –marca alcanzada gracias al fuerte El Niño del 1998, un evento climático sin conexión alguna con los niveles de CO2, o las actividades humanas. Por ello, un aumento de 1º C en los próximos 50 años es algo suma-mente improbable.

Aquí veremos dos gráficos de datos obtenidos de los cilindros de hielo perforados cerca de la base rusa Vostok de la Antártida. Esta información demuestra muy claramente que los cambios en los niveles de dióxido de carbono en la atmósfera no han sido la causa del aumento de la temperatura. Hay estudios que sugieren (otros lo demuestran) que el aumento del dióxido de carbono ha sido, en efecto, causado por el previo aumento de la temperatura –lo que es exactamente lo contrario a lo que los medios nos han venido informando –o desinformando?

http://img249.imageshack.us/img249/6387/ojos3le9.gif

La escala del dióxido de carbono no se muestra a causa de la herramienta de graficación. Su omisión no es importante porque la clave es el tiempo de los puntos de cambio y la relación entre los cambios de dióxido de carbono y los cambios de temperatura.
Yendo desde la derecha (lo más antiguo) hacia la izquierda (lo más reciente), encontramos que…

1.

Hacia 46.000 años atrás se alcanzó un pico de dióxido de carbono, unos 2.000 años DESPUÉS de un pico de temperatura.
2.

Un mínimo de temperatura se alcanzó hace unos 43,000 años, pero los niveles de CO2 continua-ron cayendo.
3.

Los niveles de dióxido de carbono aumentaron desde 42,400 años antes que hoy (a.que.h.) hasta 38,500 años a.que.h., casi a medida que la temperatura crecía, pero permanecieron altos por los siguientes 5000 años, mientras que la temperatura descendió.
4.

La temperatura hizo un pico hacia 32000 años a.que.h. pero el dióxido de carbono siguió aumen-tando durante los próximos 2,000 años.
5.

Los cambios en dióxido de carbono entre 20,000 y 28,000 años antes que hoy, han sido suaves pero los cambios de la temperatura han sido abruptos y de hasta 1,5º C en 200 años. Es suficien-temente claro que el dióxido de carbono no ha causado el cambio de temperatura porque los cambios del CO2 han estado retrasados con respecto a los cambios de temperatura. Para decirlo en pocas palabras, algo causó los cambios de la temperatura, pero ese algo no fue el CO2. Definitivamente.

A continuación se muestra un gráfico acerca de temperaturas y dióxido de carbono:

Parece ser que la temperatura subió ligeramente hace unos 138.000 años a.que.h., antes que lo hiciera en dióxido de carbono, pero el hecho importante es los niveles de dióxido de carbono permanecieron elevado a medida que las temperaturas descendían! De hecho, tomó más de 15.000 años para que los niveles de CO2 descendiesen. Si estos altos niveles de dióxido de carbono fueron la causa del calenta-miento cuando la temperatura aumentó, entonces ¿por qué disminuyeron las temperaturas antes de que lo hiciera el CO2? La única explicación lógica es que el CO2 no fue la causa del calentamiento. Ni antes ni ahora.

Tampoco es el CO2 una significante causa de calentamiento en ningún momento de la historia de la Tierra. También es conocido que hace millones de años (en el Cretácico) los niveles de dióxido de car-bono eran más de 20 veces más altos que ahora –entre 2.600 y 6.000 ppm (partes por millón) y que el mundo era un lugar más húmedo y cálido que ahora –pero alrededor de apenas 2,5º C más cálido que hoy. Aún con esos elevadísimos niveles de CO2 en la atmósfera no hubo ningún tipo de “calenta-miento desbocado”. Por ello es que no tiene justificación científica ninguna (aunque sí política!) para predecir que un aumento de 390 a 500 ppm causará una catástrofe mundial. Todavía faltan 5.500 ppm más para volver a los 2,5º C que había durante el Cretácico.
¿Y más recientemente?

Echemos un vistazo a los cambios de la temperatura y del CO2 atmosférico desde 1960. Para ello usaremos información del CRU (Unidad de Investigación Climática de Gran Bretaña), información que está disponible en Internet al alcance de cualquiera.

http://img404.imageshack.us/img404/1193/ojos5ko7.gif

Este gráfico muestra la debilidad de la afirmación que el dióxido de carbono –especialmente el produ-cido por el hombre- es la causa del calentamiento. Los niveles de CO2 aumentaron de manera soste-nida a un promedio de 1,3 partes por millón (ppm) con mayores aumentos algunos años y menores aumentos en otros. Al mismo tiempo las temperaturas han subido y han bajado alocadamente, mucho algunos años, poco en otros, y otros años se han mantenido más o menos estables.
Veamos algunos períodos específicos:

1.

La temperatura media global cayó desde 1960 hasta 1970, a pesar de que el CO2 aumentaba constantemente.
2.

La temperatura media global en 197 fue 0,3 º C más alta que el año anterior y sin embargo, el aumento del CO2 había sido uniforme.
3.

Hacia 1985 la temperatura media global descendió por debajo de la de 1983, pero el nivel del CO2 era 14 ppm más alto que en 1983.
4.

La temperatura media global se mantuvo casi sin variantes desde 2002 a 2004 y está por debajo de la de 1998. El dióxido de carbono atmosférico aumentó desde 1998 y sin embargo, la tempe-ratura descendió. Es claro que el CO2 no es una causa significativa del aumento de la tempe-ratura porque si lo fuese, el descenso de temperatura en algunos años jamás habría ocurrido.

Si el dióxido de carbono tuviese la pequeñísima influencia de 0,7º C para una duplicación de los niveles de CO2 de 300 a 600 ppm –como afirman algunos científicos a bordo de la nave pirata del cambio cli-mático- entonces hay otras fuerzas mucho más poderosas que están causando los cambios de tempe-ratura. Como ser: el Sol, las anomalías periódicas de las corrientes oceánicas, las oscilaciones del Atlántico Norte (OAN) o las Oscilaciones Decenales del Pacífico (ODP).

Resumiendo, las afirmaciones alarmistas acerca del dióxido de carbono son poco éticas y anticientíficas. Tendría mucho más sentido investigar y comprender a todas esas otras fuerzas que afectan al clima y decidir cualquier acción, si es que resultan apropiadas y convenientes –para no decir posibles o practi-cables, porque influir sobre el clima, en contra de fuerzas geológicas descomunales, se ve como una necedad increíble.

http://img258.imageshack.us/img258/125/correlapf9.jpg

Correlación entre dióxido de carbono y temperaturas medias globales. ¿Quién vino primero?

El asunto de la “correlación”, cuando se trata de gráficos, puede ser de una buena ayuda visual para una correlación aproximada, pero para poder establecer una “real y exacta” correlación son necesarios gráficos de una escala más ampliada. Cada división del gráfico corresponde a 10.000 años, y en la pantalla de su computadora (en el caso de que use 800 por 640 píxeles de resolución), hay 15 píxeles entre una división y otra, por lo tanto a cada píxel le corresponden: 10.000 / 15 = 666.66 años. Teniendo esto en cuenta, podemos hacer un somero análisis de estas presuntas correlaciones.

Muchos estudios paleoclimáticos, especialmente los relacionados con tiempos muy “modernos” como los últimos 1500 años, indican que la temperatura ascendió antes de que lo hiciesen los niveles de CO2 en la atmósfera y, generalmente, el anticipo del aumento de la temperatura sobre el del CO2 era de entre 200 a 400 años, lapso de tiempo que pasaría desapercibido en el gráfico que nos muestra la UNEP, porque 200 años corresponden a 1/3 de píxel, y 400 años 1/6 de píxel, lo que no puede representarse en la pantalla de su monitor. ¿Podría sugerir esto que el ascenso de la temperatura es la que provoca el aumento de los niveles de CO2? Quizás. Hay muchas más probabilidades de que esto sea así, y no lo contrario, que el aumento del CO2 sea quien causa la subida de la temperatura. Pero veamos los ejemplos marcados en el gráfico.

Bajo la letra A, a la izquierda, en la región de + 322.000 años antes de hoy, la concentración de CO2 disminuyó de 300 a 260 partes por millón (ppm), y la temperatura lo hizo, en el mismo período, desde 3,6º C a 1,5º C, aproximadamente. Ahora bien, no importa aquí quién bajó y subió primero, sino que sus bajadas y subidas no se correlacionan perfectamente como sugieren el UNEP y el IPCC. Mientras que el CO2 descendía de manera sostenida y uniforme, la temperatura detuvo su descenso hacia el final del período, subió unas décimas de grado, descendió otra vez y volvió a subir una vez más, para iniciar a continuación un largo y sostenido descenso hasta el año 308.000 antes de hoy. Mientras la temperatura descendía uniformemente, la concentración de CO2 detuvo su descenso, subió un poco y cayó nuevamente.

Existen entonces faltas de correlación entre el CO2 y la temperatura, lo que podría deberse a que existieron otros factores que influyeron, de manera independiente, en las disminuciones y aumentos del CO2 y la temperatura. ¿Cuáles pudieron ser dichos factores? Quizás un aumento o una disminución de la actividad volcánica, una variación en la inclinación del eje de rotación de la Tierra, cambios en la presesión, y otros fenómenos astronómicos, o más probablemente una muy variable actividad del Sol. (Para saber más sobre la influencia del Sol sobre el clima, vea el estudio del Dr. Th. Landscheidt, (“¿Una Nueva Edad de Hielo en Vez de Calentamiento?” en este mismo sitio.) Esto quiere decir que la “aparente correlación observada” entre CO2 y temperaturas, no es una correlación de “causa y efecto” neta, ya que existen otros factores que aportan sus efectos y destruyen esa correlación de “causa y efecto”.

Vayamos ahora al caso marcado por la letra C. ¿Qué pasó aquí, señores del IPCC? Vemos que la temperatura comenzó a descender, y el CO2 siguió subiendo durante 1800 años más! Luego, mientras los niveles de CO2 se mantuvieron estables (en una clara meseta que duró unos 8.000 años), la temperatura bajó, se mantuvo bastante estable, bajó, subió, y volvió a bajar antes de que el CO2 comenzara a descender. Pero, lo mismo que en el caso B, los cambios de la temperatura ocurrieron unos 1200 años (2 píxeles) ANTES de que los niveles de CO2 siguieran la “correlación”.

La misma falta de correlatividad se ve en el caso D, donde la temperatura desciende de manera rápida, mientras que los niveles de CO2 se mantiene estables un cierto tiempo, y luego no bajan de la manera e intensidad “correlativa” que se puede apreciar en varias partes del gráfico, indicando que el CO2 no tiene la importancia que se le quiere asignar como gas de invernadero. Pero sobre todo, del análisis del gráfico del UNEP y el IPCC, lo que se ha podido sacar en limpio (salvando la imprecisión y falta de escala adecuada) es que la correlación entre el CO2 y la temperaturas es bastante pobre, y sobre todo contradictoria. Demuestra que son otros lo factores que afectan la subida y bajada de la temperatura, y que los científicos deberían de ponerse de acuerdo, de una vez por todas, sobre cuáles son.

Pronóstico de profundos mínimos Gleissberg
y clima frío alrededor del 2030 y el 2200

Una pregunta aún más difícil es si los futuros Mínimos Gleissberg serán del tipo regular con actividad solar moderadamente reducida como en 1895, o del tipo de muy baja actividad como el Mínmo Dalton hacia 1810, o del tipo de gran mínimo que casi extinguió toda actividad solar, como durante el nadir del Mínimo Maunder hacia 1670, el Mínimo Spoerer hacia el 1490, el Mínimo Wolf hacia el 1320, y el Mínimo Norman hacia el 1010 (Stuiver and Quay, 1981). La Fig. 11 ofrece una solución heruística. Muestra a la serie de tiempo de extremos dT/dt sin suavizado para el intervalo 1000 – 2250. La consistente regularidad atrae nuestra atención. Se observa que cada vez que la amplitud de un extremo negativo pasa por debajo de un umbral bajo, indicado por la línea de rayas horizontal, esto coincide con un período de actividad solar excepcionalmente débil.

http://img184.imageshack.us/img184/6770/fig11ljs2.jpg

Dos extremos negativos consecutivos traspasando el umbral inferior indican un Gran Mínimo del tipo Maunder, mientras que un único extremo por debajo del umbral va junto a eventos del tipo Mínimo Dalton. Los Grandes Mínimos de la figura 11 están indicados por sus nombres. El único extremo mínimo alrededor del 1170 es del tipo Dalton. Durante este tiempo, la actividad solar se amortiguó, pero esta disminución no fue duradera. De acuerdo a Lamb (1977), que se fijó en el registro de isótopos de oxígeno del norte de Groenlandia provisto por Dansgaard, ocurrió un período de súbito enfriamiento al final del Siglo 12. De manera que he llamado a este profundo Mínimo Gleissberg en su honor.

La figura 11 muestra que la actividad solar de notable intensidad y también los correspondientes períodos cálidos en la Tierra, están indicados por los extremos de dT/dt. Como un ejemplo, el Óptimo Medieval está indicado por una flecha. Debe notarse que la extraordinaria amplitud positiva hacia el 1200 es mayor que la amplitud hacia 1952 y 1984, indicando a los modernos máximos Gleissberg ligados a un calentamiento no tan elevado como el del 1120 (Schönwiese, 1979). Más detalles de esta relación serán presentados próximamente en otros lugares.

Sin excepción, los extraordinarios extremos negativos coinciden con períodos de actividad solar excepcionalmente débiles y vice versa. De manera hay buenas razones para esperar que el próximo Mínimo Gelissberg del 2030 será uno profundo. Como hay tres extremos consecutivos por debajo del umbral cuantitativo, hay una gran probabilidad de que el evento será del tipo Maunder. Esto también es cierto para el mínimo del 2201, mientras que el del 2122 deberá ser del tipo regular como se ve en la figura 11.

Se ha demostrado que existe una estrecha relación entre los profundos Mínimos Gleissberg y el clima frío. De manera que la probabilidad es muy elevada de que el Mínimo Gleissberg del 2030 y 2201 irán acompañados de períodos de clima frío comparables al nadir de la Pequeña Edad de Hielo. En cuanto al mínimo del 2030, hay indicaciones adicionales de que se espera un enfriamiento global en vez de un calentamiento global. La Oscilación Decadal del Pacífico (ODP) mostrará valores negativos hasta quizás el 2016 (Landscheidt, 2001), y Las Niñas serán más frecuentes y fuertes que los El Niño hasta el 2018 (Landscheidt, 2000).

Los resultados heurísticos derivados del ciclo de 166 años no están aún corroborados por una detallada cadena de causa y efecto. El progreso al respecto será dificultoso ya que las teorías de la actividad solar y las del cambio climático están todavía en una etapa rudimentaria de su desarrollo, aunque hay progresos en cuanto a la explicación física de especiales relaciones Sol-Tierra (Haig, 1996; Tinsley y Yu, 2002). A pesar de ello, la conexión con la dinámica del sistema solar, el largo de la información involucrada que cubre miles de años, y los habilidosos pronósticos de la actividad solar y eventos climáticos construidos sobre los mismo cimientos, hablan de la confiabilidad del pronóstico de los próximos Mínimos Gleissberg y su impacto sorbe el clima.

10. Hipótesis del IPCC del calentamiento antropogénico
no está en el camino del enfriamiento global.

No espero que los efectos de los gases de invernaderos antropogénicos eliminarán la predominancia del Sol. Si esos efectos fuesen tan fuertes como pretende el IPCC, mis diversos pronósticos limáticos, basados exculsivamente en la actividad solar, no habrían tenido ninguna probabilidad de haber resultado correctos. Más aún, ya que mis pronósticos cubren años y décadas recientes del calentamiento que, de acuerda al IPCC no pueden ser explicados por el forzamiento natural.

Las “historias” del IPCC, lejos de las predicciones que se practican en otros campos de la ciencia, son casi exclusivamente apoyados por corridas de Modelos de Circulación General (MCG). Estos modelos están basados en el mismo tipo de ecuaciones diferenciales no lineales que llevó a Lorenz a reconocer en 1961 que las predicciones del tiempo a largo plazo son imposibles por la extremada sensibilidad de la atmósfera a las condiciones iniciales. No es concebible que el “Efecto Mariposa” deba desaparecer cuando el rango de la predicción de unos pocos días es extendida a décadas y siglos.

Algunos climatólogos conceden que hay un problema. Schönwiese (1994) hace notar: “Consecuentemente, deberíamos llegar a la conclusión de que el cambio climático no puede ser predicho (por los MCG). Es correcto que los variados y complejos procesos en la atmósfera no pueden ser predichos más allá del límite teórico de un mes a través de cálculos paso a paso en los modelos de circulación, ni ahora ni tampoco en el futuro. Sin embargo existe la posibilidad de una predicción condicional. La condición es que un factor especial dentro de la compleja relación causa-efecto es tan fuerte que claramente domina a todos los otros factores. Además, el comportamiento de ese único y dominante factor causal tiene que ser predecible con certeza, o a un alto grado de probabilidad.” Una mirada a la literatura muestra que estas condiciones no se cumplen. Más aún, existen dificultades técnicas y matemáticas. Peixoto y Oort (1992) comentan apropiadamente: “La integración de un modelo totalmente acoplado que incluya a la atmósfera, océano, tierras y criosfera con escalas de tiempo internos muy diferentes imponen dificultades casi insuperables para alcanzar la solución final, aún cuando todos los procesos fuesen completamente comprendidos.”

De manera que no resulta sorprendente que los pronósticos válidos de MCG sean una especie rara. Las hipótesis del IPCC sobre el calentamiento global requieren que la radiación de onda larga al espacio se reduzca a causa de la acumulación de gases de invernadero. En realidad, los satélites han observado una tendencia al incremento de la radiación de onda larga en los trópicos durante las últimas dos décadas (Wielicki et al., 2002). Los MCG predicen mayores aumentos de temperatura con el aumento de la distancia desde el Ecuador, pero las observaciones no muestran un cambio neto en las regiones polares durante las últimas cuatro décadas (Comiso, 2000; Przybylak, 2000; Venegas and Mysak, 2000). De acuerdo a los datos más reciente, la Antártida se ha enfriado de manera considerable (Doran et al., 2002) en vez de haberse calentado.

De fundamental importancia es la discrepancia entre los pronósticos de los MCG y observaciones como la evaporación. Aún si las consideraciones teóricas del IPCC fuesen correctas, el CO2 podría manejar sólo 0.88°C de calentamiento para dentro de más de un siglo. Esta pequeña cantidad de calentamiento, sin embargo, aumentaría la evaporación en la superficie y elevaría la concentración de vapor de agua, por lejos el más poderoso gas de invernadero en la atmósfera. De acuerdo a los modelos climáticos, esta realimentación positiva causaría un calentamiento mucho más grande que sólo el CO2 y otros débiles gases de invernadero. De manera que es crucial para las hipótesis de calentamiento del IPCC que la observación muestre una disminución de la evaporación en el Hemisferio Norte durante los últimos 50 años, en lugar de su pronosticado aumento (Roderick and Farquhar (2002). Hay muchos otros puntos, pero irían mucho más allá del marco de este estudio.

11. Perspectiva

No necesitamos esperar hasta el 2030 para ver si la predicción del próximo Mínimo Gleissberg es correcta. Mucho antes de alcanzar el punto más bajo del desarrollo, debería hacerse manifiesta una tendencia declinante en la actividad solar y las temperaturas globales. El actual ciclo 23 de manchas solares, con su actividad considerablemente más débil, parece ser la primera indicación de la nueva tendencia, especialmente porque fue pronosticada en base a los ciclos de movimientos del Sol hacen ya dos décadas. En cuanto a la temperatura, sólo los períodos de El Niño deberían interrumpir la tendencia hacia abajo, pero hasta el NIño podría hacerse menos frecuentes y fuertes. El resultado de este ulterior pronóstico climático a largo plazo, basado únicamente en la actividad solar puede considerarse como una lápida para las hipótesis del IPC sobre el calentamiento inducido por el hombre.

Sigamos con otro comentario propio de la corriente del golfo.

Lo primero comentar que ya que todos hemos podido observar en los ultimos mapas y graficas de la corriente del golfo,una desaceleracion en la misma y un pequeño conglomerado de

remolinos y alteraciones en la direccion de la corriente.
a raiz de ello y teniendo en cuenta que mi provervial curiosidad infantil…he estado releyendo informes,traduciendo,y vuelta a releer mas datos y hasta e conseguido encontrara

alguno que no habia visto nunca(que grande ye internet…pero grande…grande Laughing ) y bueno mas o menos la cosa seria algo asi:
Empezaremos por antecedente historicos sobre anteriores ralentizaciones o alteraciones en la corriente de Golfo,mas que nada para aquellos excepticos que dudan de que tal corriente pueda frenarse Rolling Eyes ,que haberlos hailos.
Vamos pues a comentar el enfriamiento acaecido hace unos 13000 años al que han denominado “la Younger Dyras”.Este enfriamiento fue provocado en gran manera por la ralentizacion de la corriente del golfo,ahora bien…¿que ye exactamente la Younger Dyras?.Pues la respuesta es que hace unos 13000 años,justo tras el el calentamiento del Bölling-Allerod(luego hablaremos de el si me acuerdo)el calido clima europeo,sufrio de nuevo un progresivo descenso de temperatura.Entro en un nuevo periodo frio,que se a dado en llamar younger dyras,nombre que no me sonaba a nada,hasta que me entere que se debe su nombre, a a unas plantas de la tundra llamadas Dryas Octopelatas que volvieron a reaparecer en la Europa Meridional durante este enfriamiento.Y dado que younger viene a ser menores o mas jovenes, seria algo asi como la reaparicion de las jovenes plantas de la tundra…traduccion libre y diccionario de gomaespuma en mano,claro esta.
Este periodo frio,duro hasta el 11600.

Volvamos al tema que si no nos perdemos.

En aquella epoca,la corriente del Atlantico,sufrio un rapido debilitamiento.las corrientes polares superficiales y menor contenido salino comenzaron a descender hacia el atlantico sur,hasta nuestra querida peninsula iberica,mientras que las aguas mas templadas retrocecieron ante su empuje.
El incremento de la formación de hielo marino en el hemisferio norte se vio favorecido por la desalinización parcial del agua marina,debido por una parte al aporte de agua dulce de los hielos del norte y a la menor insolacion estival(un 10% inferior a la actual) la correa termohalina
El hielo Laurentino,que ocupaba lo que es actualmente canada y el norte de EEUU,ocupaba de por si solo,una superficie similar a la actual antartida,alterando el Jet y partiendolo en dos corriente.Una que se desviaba hacia el norte y otra mas potente hacia el atlantico central,hasta nuestras latitudes.O sea que teniamos el jet muy desviado de su posicion actual,hacia el sur.concentrando todo el aire frio en una gigantesca bolsa sobre el atlantico Norte y parte del central,llevando llevando sobremanera en invierno, aire muy frio del NW y una gran zona de bajas presiones,con frentes y borrascas asociadas,que ayudaban sobremanera al aumento de la formacion de hielo marino,con diferencias de temperatura del aire de entre 20º menos en terranova o entre 8º y 16ºc (con las actuales)en las aguas del golfo de vizcaya(a modo de ejemplo) o temperatura del mar de 8ºc en las costas portugesas.

la teoria mas extendida es la del aporte de agua dulce al golfo de mejico desde el lago assiz(lo que hoy son los grandes lagos) a traves del rio Misisipi.
Tengamos en cuenta,que por entonces el caudal de tal rio,era superior al del actual amazonas,asi que nos podemos hacer una idea de la cantidad de agua dulce que se virtio durante decenas de años al golfo de mejico.Eso,junto con la desparicion de la barrera de hielo en el borde oriental del lago,hizo que se virtieran a traves del canal de San Lorenzo,grandes cantidades agua fria y dulce al oceano.tomemonos un momento para pensar en la situacion que se estaba dando.
Tenemos una gran cantidad de agua dulce en el golfo de mejico abasteciendo a la corriente ascendente y una gran cantidad de agua dulce y helada,corriente que giraba hacia el W en el mar de Labrador,en donde se encontarba con un aporte de agua fria y dulce,en su camino de descenso ya como corriente profunda termohalina.sumemosle el descenso de temperatura de las aguas superficiales,debido al descenso de insolacion y al descenso de temperatura de los vientos y al aumento de su fuerza y borrascas y frentes frios que conllevaban.
lo que tenemos es una corriente frenada y obligada a disolverse en su camino de ascenso hacia el artico,ya que ya no llevaba aguas salinas y templadas hacia el norte.Ya no habia corriente termoahlina que impidiera a los hielos del norte extenderse e invadir el atlantico y las costas europeas(hay que ver la mania que tienen estos americanos con invadirlo
todo…ya desde antaño).
Vale pues,todo esto es simplemente para decir que si hay datos de que nuestra querida corriente termohalina ya se a parado en mas ocasiones,asi que no tenemos que pensar que no pueda volver a ocurrir.Y lo peor es que ya parece que esta ocurriendo.
La actual correa termohalina,a disminuido su velocidad y se comienza a difuminar su trayectoria,perdiendose en multiples remolinos.la circulacion en su vertiente meridional esta comenzando a verse afectada,comenzando a alterar(aunque de momento no en exceso)las temperaturas medias anuales.
el descenso en la banquisa artica de años atras(NO de este) junto con el aumento de ptrecipitaciones,podria haber comenzado a aportar un exceso de agua dulce a la correa.agua dulce que afectaria a las corrientes superficiales.juntemoslo con el descenso de insolacion actual(debido a un menor…bueno nulo numero de manchas solares,menor actividad solar=menos viento solar=mas rayos cosmicos=mayor nubosidad reflejandolos hacia el espacio y mayor enfriamiento),el aumento de borrascas en la zona y el minimo solar en el que estariamos entrando.
Tenemos pues en la corriente:un aumento en el aporte del agua dulce,un aumento del frio en superficie,una disminucion de la insolacion y hoy por hoy un aumento en la extension de la banquisa artica.Aumento pero de hielo de escaso grosor,que puede fracturarse facilmente y verterse al atlantico,enfriando aun mas sus corriente y aportando aun mas agua
dulce.enfiando aun mas el regimen de vientos del NW y el numero de frentes frios y borrascas,que a su vez devolverian mas frio y mas agua dulce.

Todo esto estaria comenzando a provocar una alteracion en la llegada de las corrientes profundas a a su llegada al Artico y su evolucion posterior al ser devueltas al oceano.
Por otro lado tenemos una banquisa antartica con una situacion de crecimiento de extension y descenso de temperaturatus y un consigiente aporte a las corrientes profundas del Atlantico sur de agua fria.no olvidemos que esas corrientes profundas siguen su camino hasta el artico,el cual recordemos que esta perdiendo salinidad sus mares subarticos

En definitiva mis queridos contertulios.necesitamos una suelta masiva de icebergs en el atlantico norte para acabar de frenar la corriente del golfo.Y yo dira que no tardaremos muchos años en asistir a ella.Insisto en que las condiciones actuales,son idoneas para formacion de extensas capas de hielo en el artico,pero facilmente desgajables y por tanto susceptibles de deribar por el atlantico norte enfriando las corrientes superficiales a su paso,ayudados por la menor insolacion y un aumento de aire frio del NW y las borrascas que conllevaria.Descenso de salinidad en la correa y descenso de temperatura en la misma.ralentizacion y cambio de dinamica de la corriente del golfo.LLamemoslo como queramos(yo voy llamarla maria que ye un nombre muy “corriente”).pero creo que somos “afortunados” ya que estamos asistiendo a un acontecimiento climatico ciclico,que pocas generaciones han podido vivir…o mas bien….sobrevivir.

Los cambios bruscos en el clima en los últimos 420.000 años están ligados a llegadas al océano profundo de aguas de la Antártida, según un estudio dirigido por Joan Grimalt y que se ha realizado en el Atlántico, en la península ibérica, en torno al cabo San Vicente.

Según explicó Grimalt , en su estudio,han tratado de establecer cómo han sido los ciclos climáticos aunque siguen sin saber qué es lo que provoca los “empujones” de agua a la profundidad del océano desde el sur del planeta.

Grimalt, del IIQAB-CSIC de Barcelona, explicó que los cambios climáticos naturales corresponden a las variaciones orbitales de la Tierra en relación con el Sol, que son cambios lentos, y que ocurren como la acumulación de cambios pequeños a lo largo de ciclos de 23.000, 40.000 y 100.000 años, y por eso hay periodos glaciales e interglaciales.

Esos son los cambios lentos, pero a finales de los 90 se descubrió que también en la Tierra había habido cambios bruscos que no se podían explicar por esas variaciones orbitales y de los que “hoy por hoy sigue sin saberse cuál es su origen”.

Grimalt, que ha colaborado para su estudio con B.Martrat, también del IIQAB, y con investigadores del Reino Unido y de Suiza, han analizado “un testigo” sedimentario cerca de la costa portuguesa, un poco al sur de Lisboa, “muy estratégico” porque está situado en un punto del Atlántico norte que recibe influencia de aguas antárticas y árticas.

Con su trabajo muestran que cada vez que ha habido “un cambio brusco” climático ha estado relacionado con una llegada de aguas del sur, antárticas, “un empujón que se produce a 3.000 metros de profundidad”.

Además, la temperatura de las aguas de superficie y todo el entorno del hemisferio norte cambia bruscamente y hay unos enfriamientos muy fuertes aunque no tienen la respuesta de por qué se producen esos “empujones”.

“Lo interesante -precisó- es haber demostrado que los procesos del fondo oceánico son los que mandan en los cambios bruscos aunque no sepamos por qué”.

En algunos estudios anteriores se había apuntado que esos procesos podían deberse a pequeñas variaciones de la insolación, pero su trabajo “muestra claramente” que “eso que se creía de que cada 1.450 años había habido un cambio brusco climático pasó únicamente en el último periodo glacial”.

Es decir, esos cambios cada 1.450 años se han producido en el intervalo comprendido entre hace 70.000 y 15.000 años “pero no fuera de él”.

El hecho de que solo ocurra en un tramo de tiempo le quita mucha fuerza a que se deba a la influencia del Sol, aseguró Grimalt.

Los datos que soportan su investigación, para la que han estudiado el registro de las aguas del pasado, los han obtenido a partir del análisis de una base de sedimento marino de unos 40 metros de longitud.




En ese sedimento se han analizado compuestos orgánicos, formados bien por algas o por plantas superiores, así como fósiles de foraminíferos y esqueletos de carbonato cálcico.

“Cuando ha habido algún cambio abrupto en el clima ha correspondido a una situación en la que todo el Atlántico norte estaba lleno de icebergs y durante mucho tiempo se pensaba que se debía a eso y ahora lo que pensamos es que eso es consecuencia de la llegada de aguas subterráneas pero lo sorprendente es que son las de la Antártida sobre el Atlántico norte y no las del Ártico”.

Rafael López Guerrero -INTELIGENCIA EXTRATERRESTRE EN EL MARCO DE LA EXOCIENCIA-

Rafael López Guerrero -INTELIGENCIA EXTRATERRESTRE EN EL MARCO DE LA EXOCIENCIA- CyE IV from La Caja de Pandora on Vimeo.


Rafael López
Doctor Ingeniero en telecomunicaciones, Doctor en Administración de Empresas y Licenciado en Derecho. Inventor del protocolo WIRRSIP ( wirrsip.eu ) Director de la Revista Científica Starviewer team Experto en Radiofrecuencia Cuántica Avanzada . Lógica del Diferencial König-Guerrero. TGTRPT. Investigador Científico Independiente. Research Director del IRCAI (Instituto de Radiofrecuencia Cuántica Avanzada Internacional)
Miembro del Project Management Institute (PMI). Promotor-Introductor de Infovía en España (1996-FOREDI). Autor del Libro Blanco de Convergencia en las Telecomunicaciones. Colaborador en Onda Cero y Radio Libertad. Consultor-Asesor jurídico en Telecomunicaciones, Seguridad Informática y Propiedad Industrial e Intelectual de Protocolos tecnológicos. Patentes y Modelos de utilidad IT. Normativa de convergencia. Redacción e interpretación de SLA (Acuerdos de Alcance de Servicio a usuarios) y Releases jurídico-técnicas. Metodologías para mediación, negociación de contratos TIC. Redacción de Pliegos Técnicos y Jurídicos para Administraciones Públicas, Instituciones y Operadores de Telecomunicaciones.

Publicaciones:Noviembre 2008. Convergent Data Modelling, Virtual, Interactive, Gathering, Processing and Segmental, Web Based System Integrator Software for IPRDTV (WISVISPRIT).White book on convergence.
Exociencia en el marco de la Decisión 33/426 ONU. Radiofrecuencia Cuántica Avanzada y Diferencial König-Guerrero. Física Cuántica y Telecomunicaciones Avanzadas. Convergencia Global. (Documental TV, sobre Exociencia) misteriotv.com (Sección Exociencia).

Inteligencia Extraterrestre en el Marco de la Exociencia
Inteligencia Extraterrestre en el Marco de la Exociencia: aspectos fundamentales de la Exociencia. Universo Inteligente y Radiofrecuencia. Las Resonancias Schuman y el Universo inteligente. Iniciativas científicas Independientes en el marco de la Decisión 33/426 (Inteligencia Extraterrestre).

starviewerteam.org