Conscience globale. (spiritualité/conscience)

 

 

http://www.futurinc.lautre.net/article.php3?id_article=6

Le "Global Consciousness Project" semble à première vue une affaire bien anodine. Des ordinateurs en réseau, répartis à travers la planète et occupés à générer des chiffres au hasard... Mais imaginez un instant que des universitaires bidouilleurs puissent prouver avec ça l'existence d'un inconscient collectif...

 

Quel point commun entre les célébrations de l'An 2000, un tremblement de terre en Turquie, les funérailles de Lady Di, les JO de Nagano ou les événements du 11 septembre 2001 ? Tous ces événements, violents, tristes, intenses, ont fortement marqué les esprits. Simultanément repris en masse par les médias et présents sur toutes les lèvres. A chaque fois également, des séquences de données ont été discrètement recueillies par le réseau GCP, acronyme du Global Consciousness Project.

Projet Conscience Globale
Première expérience de parapsychologie planétaire, ce projet de recherche étonnant et inspiré, mené sous l'impulsion des professeurs Nelson (père et fils) sous le sceau de l'Institut des Sciences Noétiques, réunit une dizaine de bénévoles. Des personnalités et experts venus de tous les horizons : intelligence artificielle, neuroscience, anthropologie, analyse des données... Ces compétences sont unies au service d'une même question : est-il possible d'établir l'existence d'une conscience globale, à l'échelle de la Terre ?

Une démarche scientifique que leurs auteurs résument ainsi "nous avons l'hypothèse que nos instruments montreront des déviations anormales liées à des Evénements Globaux quand se manifeste une large communauté de participation ou de réaction à l'événement et que nous pouvons en attendre une résonnance et une cohérence à grande échelle."

Rendu public et officiellement en service depuis août 1998, le GPC enregistrerait ainsi en direct continuel toutes les joies et les peines de la planète. Spécificités locales, évènements globaux, pondérations statistiques, mise à disposition des données, présentations graphiques ou sonores... La quantité d'informations fournies sur le site du projet est instructive. Ainsi la mécanique informatique (à base de linux ;-) utilisée pour étudier les corrélations entre données collectées et événements collectifs est éprouvée, nourrie de presque 35 années d'essais en laboratoires et protocoles expérimentaux en tous genres.

Micro-Psychokinèse : mode d'emploi
Le coeur du système repose sur des micro-REG, des dispositifs portables de Random Event Generator, que l'on peut traduire par "générateur numérique aléatoire" ou GNA. Ces appareils statistiques perfectionnés, fondés sur la désintégration imprévisible d'éléments atomiques, servent comme capteurs passifs à mesurer les interactions entre l'esprit et la matière. Qualifiés de micro-psychokinèse, ces effets se présentent ensuite dans les relevés statistiques sous la forme "d'anomalies significatives". C'est à dire des séries cohérentes de chiffres qui apparaissent, s'auto-organisent et s'écartent de la ligne de base du hasard.

Si un individu est capable d'influencer un GNA, pourquoi ne pas imaginer la même chose avec un groupe ? en recalibrant apr exemple le GNA pour enregistrer et suivre les fluctuations liées à des états particuliers de conscience ? Et peut-on reproduire ces résultats à l'extérieur d'un laboratoire, sur des terrains "spéciaux", comme la pyramide de Gizeh ou un stade de football ? Entre 1994 et 1998, des séquences de données récoltées lors de concerts lyriques à Bayreuth, de cérémonies rituelles, ou de méditation collective...) ont présenté des déviations fortes ou très fortes lors de situations "impliquantes". Celles suscitant des investissements émotionnels ou intellectuels. Jamais en cas d'événements ne nécessitant qu'une attention superficielle.
Dès lors, pourquoi ne pas mettre en place des relevés disséminés entre différents lieux, et vérifier si des événements exceptionnels, locaux, peuvent se retrouver dans le global ?
D'hypothèses de recherche en expériences toujours plus vastes, ces étapes ont permis au Pr Nelson d'affiner et perfectionner ses appareils de mesure avant de les répandre à l'échelle de la planète.

EGG a.k.a Electro-Gaia-Gramme
L'émergence avec Internet d'une infrastructure technologique internationale et décentralisée a signé le vrai démarrage du programme GCP et permis les premiers transferts de données. Sécurité, synchronisation des paquets, archivage ou analyse conjointe (dont une part de protocole propriétaire), l'architecture client-serveur REGG-Net 1.5 est constituée d'un serveur principal (situé à Princeton) qui fait fonction de "Panier", et de capteurs Micro-REG dont les messages sont les "Oeufs" en transit. Les données sont ensuite moulinées, agrégées sous formes de "graphes" (analogue à un électro-encéphalogramme mais à l'échelle de Gaia, la planète Terre), de tableaux en bâtons ou de représentations 3D.

Avec aujourd'hui une cinquantaine d'"Oeufs" actifs (disséminés entre l'Europe, les USA, l'Inde, les îles Fidji, la Nouvelle-Zélande, l'Indonésie et le Brésil), le réseau est désormais "suffisamment fiable pour fournir les données nécessaires aux analyses prévues... et continuer à croître naturellement en fonction des nouveaux volontaires."

Etabli à priori, le registre de prédictions - une liste d'hypothèses spécifiques et datées, comme la finale de la Coupe du Monde ou une éclipse de soleil - fixe des événements majeurs éventuels dont les manifestations seront ensuite recherchées au sein des données couvrant cette période (hormis événements ou catastrophes imprévisibles bien entendu). Parfois, les corrélations sont fortes, à d'autres quasiment nulles, mais pour Nelson "les résultats accumulés montrent en moyenne en cas d'événements globaux des fluctuations légèrement différentes d'un pur relevé aléatoire. Les différences sont subtiles et à analyser avec prudence afin d'éviter les erreurs ou l'influence des observateurs".

Des erreurs de jeunesse
Le 11 septembre 2001, les ordinateurs du GCP ont immédiatement retranscrit des nuages de points significatifs. Une tendance aux pics marqués (notamment aux heures de crash des avions et d'effondrement des tours) par de tels écarts statistiques qu'il y avait "une chance sur million que cela soit du au hasard", comme l'a écrit le prof. Nelson dans des publications scientifiques de l'été 2002. Ces résultats paraissaient confirmer les corrélations accumulées durant les quatre années d'existence du projet. Une esquisse de preuve plutôt synonyme de corrections nécessaires.

Depuis, le projet est sur le grill, notamment pour ses travers de méthode. "Des erreurs petites, de calculs ou d'analyse, mais qui s'additionnent" explique Peter Bancel, un expert occupé depuis plusieurs semaines a rédigé un rapport d'évolution et de recommandations au sujet d'un projet "simple dans le concept alors que c'est dans son suivi que réside la réussite". Non détectées, les erreurs s'accumulent. Faussant à terme l'ensemble des résultats.

"Le projet est tout petit, et en même temps, il a une grande ampleur, poursuit cet analyste, donc c'est très difficile de suivre tous les détails". Et pas de place à des calculs approximatifs si l'on veut se plier à une parfaite rigueur scientifique. "Et dans ce type d'études, il faut des résultats étonnants".

D'après Peter Bancel, on ne peut s'avancer pour l'instant à donner des probabilités. Il faut mettre un bémol à ce qui a été dit "mais pas à 100%". Les données brutes sont encore là et l'honnêteté intellectuelle de l'équipe projet jamais mise en doute. Ses contradicteurs saluent d'ailleurs la volonté de transparence affichée et la quantité de données disponibles via le site web. "Pour être solide, préconise-t-il, il faut faire des hypothèses précises et creuser la base de données pour découvrir les anomalies susceptibles de se reproduire, et reposer des hypothèse pour les années à venir."

Vous avez dit Noosphère ?
S'il est juste aujourd'hui d'émettre les plus grandes réserves sur l'interprétation des résultats, les perspectives déjà esquissées restent néanmoins extrêmement troublantes. Pour Erik Pigani, journaliste à Psychologies Magazine et auteur de Psi, Enquête sur les phénomènes paranormaux (Presse du Châtelet), ces résultats "démontrent qu'une sorte d'inconscient collectif se manifeste à travers une cohérence très significative". Et de rappeler d'autres anomalies observables sur les relevés où "il semblerait même qu'il y ait une anticipation de l'événement".

Ces premières années d'activité du projet Global Consciousness Project questionnent la définition admise des limites de la conscience et évoquent bien sûr d'anciennes traditions spirituelles (Grand Esprit, Mère Gaïa) ou des théories plus récentes comme l'inconscient collectif de Jung ou la Noosphère de Teilhard de Chardin, spéculation chère aux techno-shamans et autres cybermanciens.

Pour l'instant, les défricheurs du GCP poursuivent dans l'ombre leurs recherches, consolidant leurs résultats et s'obstinant à mieux comprendre leurs "anomalies signifiantes". Car quelque part, il existe un appareil capable d'enregistrer la "température psychique" du globe.

 

 

Le web du Projet Conscience Globale :
http://noosphere.princeton.edu

Institut des Sciences Noétiques :
http://www.noetic.org

Teilhard de Chardin et la Noosphère :
http://www.trip.com.br/teilhard/francais.htm

 

 

 

Ajouter un commentaire