lundi 1 octobre 2018

Intégration et Cointégration des Variables (ICV)


Résumé 
Dans ce présent rapport, nous exposons un aperçu général sur les notions de stationnarité (intégration) et de cointégration des variables. Bien qu’elles occupent une place importante en statistique et en économétrie, leurs concepts ont, pour beaucoup de chercheurs, été un peu flous. Je me permets d’en étayer davantage en proposant que l’essentiel du point de vue théorique et empirique sur l’intégration et la cointégration des variables.
Keys Words: ARDL, Box-Jenkins, Engle & Granger (1987), Johansen (1988)


Introduction
Une variable temporelle, un processus de courte ou de longue mémoire nécessite avant d’être analyser, une étude permettant de soulever les grandes caractéristiques d’une grandeur sur le plan statistique. Il s’agit entre autres, sa tendance ; sa saisonnalité ; sa stationnarité, sa loi de probabilité ou sa densité, …etc.  L’une de volet très intéressant et qui dans la plupart des cas se présente est la question de la stationnarité de la chronique. Plusieurs procédés sont à notre disposition pour sa mise en œuvre. En outre, l’intérêt de cointégrées les variables dans le cas d’une combinaison linéaire est devenu viral dans les études économétriques. De peur de présenter un modèle illusoire avec des coefficients hors normes, la littérature se dépêche de proposer un tas d’outils pour venir contourner cet obstacle majeur en économétrique. Dans les sections suivantes, nous présentons la stationnarité de la variable de manière plus concise et discutons par la suite la notion de cointégration.





I.                   Intégration des Variables (IV)

Une des notions fondamentales en statistique et en économétrie est effectivement celle liée à l’intégration des variables. Qu’est-ce que, véritablement l’intégration des variables ?  Il se trouve qu’en statistique, l’idée de non-stationnarité est plutôt couramment utilisée par rapport à celle d’intégration des variables. Or, la signification de cette dernière est polyvalente d’une discipline à l’autre.  En statistique, un processus temporel fluctuant indépendamment du temps est dit stationnaire. Par illustration (chronogramme et corrélogramme), on peut assister une concentration de la chronique autour de sa valeur moyenne (espérance mathématique) ou une décroissance rapide de la fonction d’autocorrélation. En termes de probabilité, la distribution jointe (loi ou densité) est identique pour les k et les k+1 premières variables. En ce sens, le processus est stationnaire au sens stricte (dit aussi de premier ordre ou fort). Pour en dire plus, quel que soit l’instant t considéré, la variation de la chronique en t et t+1 est n’est pas influencé par le référentiel temporel. De ce point de vue, ses propriétés, connue aussi sous la désignation « conditions de stationnarité » à savoir la moyenne, la variance et la covariance sont tous convergentes et indépendantes du temps. Vue de la complexité que relève l’estimation d’une la loi de nature probabiliste pour une distribution donnée, il a été proposé pour remédier à cela, un second sens de stationnarité dite stationnarité au second ordre (sens faible ou à covariance). Seules les conditions de l’espérance et la variance de la variable sont requises et indispensables pour pouvoir juger et affirmer sur la stationnarité à l’encontre d’une variable. Sachant la troisième condition inclut également à la seconde lorsque k est nul (cov(xt,xt-k)). Celle-ci assure un rôle pionnier notamment dans la prévision d’une série temporelle. En principe, l’intervalle de confiance des valeurs estimés en dépend pour sa validité.  Il est mentionné dans la littérature l’existence d’une multitude forme de non-stationnarité d’une suite temporelle parmi lesquelles la stationnarité avec tendance (TS : Trend Stationnarity, Nelson et Plosser ( 1982)), qui graphiquement, on assiste à une évolution croissance de la série au cours du temps : de ce fait, les conditions de stationnarités ne sont pas remplies. Pour contourner cette adversité et obtenir par la suite la série dépourvue de composante tendancielle, nous avons aux choix une de trois techniques notamment par droite de moindres carrés ordinaires, moyen mobile simple ou encore par le filtre Hodrick-Prescott. On obtient par-là, un bruit blanc Hamilton (1994), par définition stationnaire mais de second ordre. Dans le vocabulaire statistique, on évoque aussi le bruit blanc indépendant, du fait de l’indépendance entre les variables, qui implique la nullité de la valeur de la covariance ou simplement la décorrélation entre les variables (la réciproque étant déjà fausse). Parfois de nature gaussien, il est, à la fois indépendant et suit une loi normale. Dans ces conditions, le bruit blanc est strictement stationnaire (ou stationnaire au sens strict). A la différence, un processus stochastique n’est pas forcement stationnaire.  La deuxième forme de stationnarité, quant à elle est de type stationnarité par différence (DS : Difference Stationnnarity, Nelson et Plosser ( 1982)). Elle est dû, en particulier, à l’influence de la série par ses propres valeurs historiques. En évidence, la différenciée selon un ordre bien diffèrent de zéro permet de stationnariser la série.   Dans la pratique, deux familles de test de stationnarité s’annoncent. C’est en effet, d’une part le test ayant comme hypothèse nulle de stationnarité (Test KPSS) et d’autre part, les tests ayant comme hypothèse nulle de non-stationnarité (Test de Dickey-Fuller ou Phillips-Perron). Encore plus, une variable peut être stationnaire avec constante et tendance ; ni l’un et ni l’autre ou avec constante seulement, selon les significativités de ces paramètres. La nuance qu’il semble adéquat de préciser est celle de se dire comment une série peut être stationnaire avec tendance, alors que c’est la composante tendancielle qu’il faut la dénuée. Assez logique, en réalité, ça voudrait dire la même chose et non vue comme deux proposition différentes ou contradictoires. En un mot, l’intégration de variable consiste à priver de la série chronologique de toute perturbation tendancielle ou historique pour pouvoir identifier la série stable afin de s’en servir dans des analyses variées. Enfin, c’est avec l’aval de cette étape primordiale et impérieuse que l’on peut se permettre d’entamer l’estimation des modèles suivants précisément modèles de Box-Jenkins (ARIMA, SARIMA, VAR, ARMAX,…etc) ou encore Engle (ARCH, GARCH, …etc).



II.               Cointégration des Variables (CV)

La cointégration est indispensable dans l’analyse bidimensionnelle aussi bien en statistique qu’en économétrie. Nous sommes conscients de l’erreur imminent que peut nous conduire la prise en compte simultanée de deux ou plusieurs variables sans avoir eu recours au préalable une étude par variable. En quelque sorte, « mieux d’abord évaluer chaque variable avant de la considérée serviable ». Introduite en économie par Engle et Newbold (1974), puis développé par Granger et Engle (1987) et poursuivie en 1991 par Johansen, la notion de cointégration est en effet, l’intégration de la combinaison linéaire entre deux variables prise ensemble auxquels des tests dans la littérature nous permet d’affirmer en cas de présence de vecteur de cointégration. Il s’agit à savoir le tests Engle et Granger (1987) ; Johansen  (1988) ; Johansen  et Juselius (1990), …etc. Il est si fréquent de se retrouver avec le problème de régression fallacieuse dans la modélisation des variables, en raison d’une régression linéaire sur des variables non-stationnaires, qui témoigne en principe, un pouvoir explicative R² et un t de Student très appréciables alors qu’en réalité, il n’existe aucun relation entre elles . Dans cette optique, la distribution des paramètres estimés ne suit plus une loi de Student mais un  processus de Wiener (mouvement brownien), qui survient quand la variance au moins de l’une des variables diverge, du fait de sa dépendance au dimension temporelle et bien identifiable avec procédure de récurrence. En effet, des bonnes perspectives de l’analyse résiduelle accompagne pour la validité finale du modèle. Lorsque le résidu n’est pas stationnaire, elle est assimilée au cas de présence d’autocorrélation entre les résidus du modèle. L’ordre d’intégration du modèle résiduelle n’est pas forcement au deçà de ceux des variables du modèle. En évidence, une composante résiduelle du modèle stationnaire à un ordre diffèrent de 0 est considérée comme un modèle où l’autocorrélation des résidus est imminente. Autrement-dit l’autocorrélation et la stationnarité s’implique indirectement au travers de la dernière condition de la covariance (au sens faible de stationnarité).  Le but de la cointégration est de pouvoir déterminer un résidu stationnaire tout en travaillant sur deux variables non stationnaires en niveau. L’idée proposé par Engle va dans la sens qu’à court terme les variables divergent, mais existe à long terme une stabilité, un équilibre entre elles. Une évolution commune des variables. Or connaissant la possibilité d’une cointégration d’ordre non nul, à long terme la perspective souhaitée existe selon des conditions bien définis en amont et en aval. Parmi lesquelles le même ordre d’intégration des variables, vérification de la possibilité de cointégré les variables, autrement dit un ordre inférieur ou égal à l’ordre commune d’intégration des variables. Outre, en aval, un signe négatif et significatif du coefficient de force de rappel à l’équilibre (ou vitesse d’ajustement) est requis tout en vérifiant la stationnarité de résidus obtenus. Le théorème de Granger (1983) met en évidence la relation de cointégration et du modèle à correction d’erreur. L’estimation de relation de court terme avec MCO n’est possible que quand on différencie les variables. En d’autres termes, en intégrant dans le modèle, les variables retardées comme explicatives. En revanche la relation de long terme sont estimées en niveau par MCO. Aucune méthode n’est parfaite, en ce sens, l’inconvénient de l’approche Engle-Granger (1987) est la non-distinction de relation de cointégration. En principe, elle ne présente qu’une seule relation de cointégration, alors qu’elle est de nombre k-1 relation avec k le nombre des variables. Johansen (1988) apporte une solution à cette problématique avec son approche multivariée de maximum de vraisemblance.  Pour la validité du modèle VECM, il faut un rang de cointégration inférieur au nombre de variable et non nul, qui est mise en évidence par la maximisation du log de vraisemblance. Dns le cas contraire, un modèle VAR(p) est estimé à la place d’un VECM. D’autre part comme dans le modèle Vectorielle autorégressif, la spécification du modèle selon l’absence ou la présence d’un constant et tendance est nécessaire. On peut les déterminés avec leurs significativités une fois estimé.  La méthode à une seule étape de BANERJEE et al. ou MCE à la Handry permet de faciliter l’interprétation de la relation de long terme. En outre, pour estimer les relations à long terme dans le cas sur petits échantillons, le modèle à deux étapes pourrait conduire à de biais d’estimation selon Banerjee, Dolado, Hendry et Smith (1986).  La modélisation ARDL « AutoRegressive Distributed Lag/ARDL » et le test de cointégration aux bornes de Pesaran et al. (2001) ont une approche de nouvelle venue pour pallier le cas de cointégration des variables à des différents ordres de stationnarités. En revanche, quand l’ordre d’intégration de variable est supérieur à 1, l’application du modèle ARDL pose un problème.

Conclusion 

La stationnarité est plus que jamais une condition d’étude préalable sur les variables avant leurs introduisons dans des études plus considérables. Il s’agit de dénuer du processus temporel des perturbations tendancielle et historiques avec des procédures appropriées pour pouvoir mener des analyses statistiques et économétriques. De même, la cointégration s’avère encore plus complexe, du fait que l’on désire s’intéresser à travailler sur des variables en niveau, tout en évitant que la régression ne soit fallacieuse. Plusieurs approches se pressent, l’une plus performant que l’autre. Dans les deux cas, ces notions ne peuvent être prise avec négligence, car une production scientifique fondé sur le processus temporel en dépend inévitablement.



Bibliographie :

1.       Atoumane Diagne (2015) : Modélisation économétrique de la consommation d’électricité au Sénégal de 1999 à 2015
2.       Hélène Hamisultane: Modèle à correction d'erreur et applications
3.       Jonas Kibala Kuma (2018) : Modélisation ARDL, Test de cointégration aux bornes et Approche de Toda-Yamamoto : éléments de théorie et pratiques sur logiciels
4.       Lonzo Lubu Gastonfils (2015) : Application De La Methode De Prevision De Box-Jenkins

jeudi 13 septembre 2018

Une substance stupéfiante : La chance


La vie sur Terre ne semble pas tenir sur la même droite que celle fut dans le paradis à Adam et Êve. Sans doute, elle est assimilée à une lutte vulgaire pour la survie non seulement pour l’Homme y compris les animaux. C’est plutôt un terrain auquel toutes les espèces sont invitées à développer un savoir-faire au profit de leurs pérennités. Certaines fois, on a l’impression de voir que la vie pour les animaux semble mieux aisée qu’elle ne l’est pour l’Homme.
Du fait du haut de sa conscience, l’être humain est plus que jamais contraint à travailler. Un dur labeur pour subvenir à ses besoins et à celle de sa communauté. Alors, les efforts proprement-dites sont-ils en rapport avec la chance ? Ou encore la Réussite est-elle la combinaison d’un ensemble d’efforts et de chances ? pour y parvenir à consentir des principes suffisamment convaincants, imaginons que nous soyons amenés à progresser pour une sélection finale, une ultime étape.
Il faut que l’on sache que les courages et les peines accumulés n’ont souvent pas tendances à s’égaler aux valeurs escomptées. La situation finale n’est pas plutôt en volteface mais peut se faire valoir être en faveur du consentement d’un individu soit au pire des cas, le contraire.
Comment expliquer un tel phénomène pareil dans la vie courante ? Sans doute, plusieurs d’entre vous, solliciteront le rôle de la chance. Dans cette condition, la chance assume-elle sa part de responsabilité dans l’évolution de chaque épreuve ? Est-elle injuste pour certain qu’elle ne l’est pour d’autre ? une première de chose que nous pouvons légitiment envisager et qui saurait un point commun entre les différents lecteurs : c’est celle de concevoir d’abord l’essence de la chance. Elle est définie comme étant un aléa, un hasard, une vraisemblance. Mais quantifiable et qui est mesurée par une probabilité, le nombre de chance qu’un évènement puisse avoir lieu.
Revenons-y sur l’expérience de la qualification finale pour entrevoir la cohérence. Imaginer que vous faites partie alors de ces finalistes. Vous êtes amené à faire un choix entre quatre lettres ‘A’, ‘B’, ‘C’ et ‘D’. Comme l’expression chance commence par la lettre ‘C’, nous allons prétendre dire que ‘C’ est la bonne option
parmi les autres. Autrement-dit chaque individu des finalistes auront chacun 25
chances sur 100 de célébrer leur moment de gloire.
Malgré vos efforts et la détermination que vous vous êtes engagés pour venir à
la hauteur de vous-même, encore soit-il que le résultat attendu ne saurait guère une
suite directe de vos engagements. Pour ainsi dire que la chance n’est pas observable
mais estimable. Elle est identique pour chaque individu et par conséquent neutre. C’est
plutôt notre libre arbitre qui en détermine la cause première de nos choix, des
conséquences de nos travails et des décisions prisent continuellement dans nos vies.
Cependant, comment allons-nous expliciter la notion absurde qui se rattache à
une situation favorable que pourrait avantager une personne physique ou morale ou
encore un Etat. Il s’agit clairement une longueur d’onde d’avance pour l’individu
possesseur que celui qui en est privé. La chance est-elle dans ce cas un privilège ?
autrement-dit le privilège est-il lui-même une chance ? A juste titre d’exemple, on se
rend compte que les avantages comparatifs entre les pays sont bien complémentaires
sur le plan économique. Il convient de dire qu’il est plutôt bénéfique pour tous, c’està-
dire une externalité positive multilatérale.
Abdi-Basid ADAN

Une information pertinente, prouesses de Data Science, Big Data et de l’Intelligence Artificielle


La révolution américaine a sans équivoque permis à certain nombre
d’américains de maitriser le globe terrestre. Au point même qu’ils sont capables de
retracer l’activité d’une personne donnée ou de prédire ses propres intentions. Une
information pertinente à la place des milliards de dollars de dépenses, qui seront
éventuellement susceptible de partir en fumées.
Elle est aussi efficacement au détriment des efforts colossales voués presque
à l’insignifiant. Il s’agit d’une information au bon moment ! et au bon contexte ! Le « trou
noir » de la toile des principaux réseaux à savoir YouTube, Facebook, Google sont les
personnes non voyantes.
En vérité, ils ne peuvent s’en servir de cette technologie ni par leurs ouïes, leurs
odorats, ou par leurs sens, il faut la vue pour être connecter et laisser ses empruntes
artificielles dans la toile. Ces populations sont à l’abris des méfaits de la civilisation
américaine.
Le Data science ou manipulateur des données massives, collectées illicitement
sur des milliards d’individus à travers le monde constitue ce qu’on appelle le Big Data.
C’est un véritable trésor pour enfin se permettre de tout connaitre. La maitrise totale
de chose. Rien, en quelque sorte ne doit échapper à un certain décideur, du haut de
la pyramide mondiale.
Le progrès technique, bien connu par ses effets positifs incommensurables, son
cercle vicieux engloutie sans indifférence presque tous ce qu’il trouve sur son passage.
Nous l’avions vu à la suite de l’avertissement de Einstein au président Roosevelt sur
le projet nucléaire du régime de Hitler, qui a finalement été la conséquence de l’horreur
et de la fureur de Roosevelt au Japan.
L’intelligence artificielle ou machine non pensante mais simulatrice de
l’intelligence humaine nous doit pas nous laisser insurger mais soyons plus sceptique
toujours. On se tremperais davantage de dire que les peuples précédents n’ont pas
eu la chance de découvrir le bien faits de notre époque.
Etant donné que le monde soit fermé et que rien ne se perd, rien ne se crée,
mais tous se transforme, Lavoisier a encore une fois raison. En effet, les méfaits du
progrès technique se répercute sur nous tout comme l’obscurantisme des anciens
peuples. Il serait plus avantageux parfois de faire remonter le temps que de vivre dans
notre époque. Il y’aurais chaque fois alors une compensation dans la réalité pour que
l’équilibre lui-même soit en parfaite équilibre.
Abdi-Basid ADAN

Principaux Fondements du Sondage


Une quantification, un décompte ou un dénombrement simplifié, bien plus qu’une simple méthode, le sondage est connu comme outils de premier ordre permettant la mise en place d’un échantillon représentatif d’une population statistique (ensemble mère). La finalité première étant d’extrapoler avec une marge d’erreur à minimiser, une information (ou un estimateur) sur l’ensemble de la population.
Les motifs du choix de l’emploi de cette technique sont divers, parmi lesquels, le cout, la durée, les difficultés d’un recensement, le budget, le personnel...etc. Entretenir uns sous partie d’un univers pour globaliser son information considère un certain nombre des critères notamment l’efficacité, la convergence, la consistance (ou robustesse), l’information de Fischer, la précision du l’estimateur obtenu…etc.
En revanche, le plus important de ces exigences sur un estimateurs est la précision (sa convergence). De façon général, la technique de sondage se ramifie en deux sections : d’une part, le sondage empirique (non aléatoire) et d’autre part, le sondage aléatoire. Le coeur du sondage s’attache à la notion de la représentativité, qui a été pour la première fois considéré par George Gallup fondateur de l’American Institute of Public Opinion. De ce fait, la mise en place doit se faire avec plus de précaution et dans la rigueur la plus stricte possible et bien conforme aux principes de sondage.
Les méthodes probabilistes renvoient à l’attribution d’une probabilité à tous le membre de la population et aux échantillons possibles, que l’on nomme probabilité d’inclusion (ou poids du sondage). Parmi ces dernières, on décompte une variété de choix des méthodes selon le coût, la simplicité de la technique d’échantillonnage, la structure, la dispersion des caractères au sein d’une population mère.
En réalité, la méthode la plus simple en technique d’échantillonnage probabiliste, c’est celle de tirage aléatoire simple avec remise et sans remise. Le choix entre ces derniers s’effectue selon la taille de l’échantillon. Généralement, si la taille de celui-ci est grande, la technique avec remise est plus appropriée.
Néanmoins, La précision de l’estimateur s’obtient avec celui non remise. Quand on désire opérer une sélection par stratification en groupe des strates homogènes entre elles (variance intra faible), on se rend compte également que l’estimateur est précis qu’il ne le soit. Améliorer la qualité en réduisant la dispersion, telle est le but visé dans l’échantillonnage. Pour ce faire, on stratifie selon la variable d'intérêt. En effet, dans chaque strate considérée, on maintient le tirage aléatoire des individus avec ou sans remise.
De ce point de vue, l’échantillonnage s’exécute en deux phases. Jusqu’à ici, on a vu que le sans remise est privilégié à celui avec remise dans le cas de petit échantillon ou de taille fini. La stratification est aussi une valeur ajoutée dans la précision de l’estimateur. A la singularité entre ces méthodes, la probabilité de sélection (ou tirage) est identique pour tout individu et bien connu en avance. La procédure du sondage systématique ou celui du tirage de poisson ou de Bernoulli s’annonce un peu différente, la probabilité d’inclusion ou poids du sondage est inégalement répartie dans la population. Elle est sur le plan mathématique, une fonction d’une information auxiliaire. Une variable corrélée avec la variable d’intérêt. L’idéale est de tiré toujours à probabilité avec remise ou sans remise.
Au-delà du sondage simple (élémentaire), pour le cas complexe à savoir celui par grappe et à un ou plusieurs degrés. L’atout consiste essentiellement à réduire le cout et améliorer la précision et donc la qualité de l’estimateur. Ces techniques d’échantillonnage s’emploi dans le cas où la zone de dénombrement, les blocs constitutifs sont homogènes entre eux (variance intergroupe faible). Sa mise en place dépend également du domaine d’étude, de la structure, de la variabilité et surtout de la disponibilité d’une liste exhaustive des individus. A vrai dire, l’échantillonnage élémentaire intervient aussi dans ces processus et constitue ce une de dernière phase d’un sondage à plusieurs degrés.
En ce qui concerne les méthodes empiriques, la méthode de quotas (pseudo aléatoire) est généralement utilisée. La sélection (ou tirage) se fait de telle sorte que l’échantillon puisse avoir la même caractéristique que la population. Ne connaissant pas a priori la probabilité d’inclusion, l’extrapolation ou l’inférence doit être prise avec plus de précaution. La considération de cette méthode réside dans le fait de consacrer un quota pour chaque caractéristique sur lequel se porte l’enquête par sondage. Les autres méthodes empiriques utilisées dans le cas où l’on dispose aucune information sur la population (cas de base de sondage indisponible) sont l’échantillonnages de convenance (ou volontaire) ; Boule de neige ; à priori…etc.
Abdi-Basid ADAN

Modèle Cosmologique de l’Avant Big Bang


Il y’a plus de 13.8 milliards d’années, une super grande déflagration plus puissante jaillissait de nulle part. A la différence d’une détonation, qui ne dépasse pas la vitesse du son, l’explosion qui a eu lieu à l’instant t nul est telle que sa dilatation continue et persistera jusqu’à un temps toujours indéterminé. Est-il un fruit du hasard cosmique ?
Ce qui est inéluctable, la science ne parvient guère avec une certitude absolue de proposer une véritable théorie cosmologique sur l’avant et l’après Big Bang. Bien que le fossé demeure significatif entres les avis des physiciens et astronomes. En Chimie, depuis les premiers travaux, en prêtant connaitre qu’un produit est la résultante d’une réaction de deux ou plusieurs réactifs.
De ce fait, intéressant de plus près de ce phénomène remarquable. La procréation, la fécondation, l’équilibre…etc. presque universellement toute apparition majeure et naturelle n’est que l’apport de deux principes ultra complémentaires. Ce produit (l’univers) n’est pourrait jamais d’être le fruit du hasard, elle est plutôt une explosion unique en son genre.
Mais si nous sollicitons la réalité régie par la science et surtout la mathématique et l’irréalité par le biais de la statistique et de la probabilité. Nous saurons que d’une part et d’autre part l’universalité de certains principes sont communes. Je veux dire que l’origine de l’univers est la combinaison de deux substances parfaites qui se dissoutes sous une nouvelle apparition : l’univers et ses contenus. Il s’agit le secret le plus intime de l’humanité.
Le plus grand centre de recherche des particules du monde, le CERN souhaite comprendre la création de l’univers. Mais atteindre une telle information semble utopique.
En effet, il s’agit des réactifs qui ont permis la formation des tas des galaxies et qui est en plus remarquablement en mouvement grâce à son inertie. L’avant Big Bang est assimilé à la séparation de deux parfaites particules, qui en résulte d’un univers en parfaite équilibre dont les propriétés restent encore à découvrir. Retracer l’histoire de Big Bang c’est connaitre par exemple l’origine de l’âme. Je veux dire par là que l’accès
de ce secret en valeur absolue ne serait jamais possible à moins que la métaphysique y fournir des estimations.
Mais si l’on croit à ces deux parfaites particules, est-il possible d’imaginer donc ce cas que leurs produits puissent donner des particules imparfaites ? L’ultime réponse serait de dire que la combinaison des milliards des particules de nature différentes qui constituent l’univers sont susceptible de se réduire en deux particules parfaites, qui ne sont que les deux clés de la création de l’univers.
Abdi-Basid ADAN

Modèle à Correction à Equations Simultanées : en Cas Standard et Spatial des Données de Panel


Introduction Générale
Rédigé par :
Abdi-Basid ADAN
Thème :
Modèle à Correction d’Erreur à Equations Simultanées : Cas Standard et Spatial des Données de Panel
Article Econométrique
Page 2
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
Table des Matières
Résumé…………………………………………………………………………………………3
Abstract………………………………………………………………………………………...3
Introduction……………………………………………………………………………………4
I. Modèle à équations simultanées…………………………………………………………….6
II.Modèle à correction d’erreur en une seule étape……………………………………………7
III.Modèle spatiale…………………………………………………………………………….8
IV.Modèle à correction d’erreur à équations simultanées …………………………………….9
V.Modèle à correction d’erreur à équations simultanées spatiales…………………………….9
VI.L’adaptation en panel des modèles à correction d’erreur à équations simultanées standard et spatiale………………………………………………………………………………………9
Conclusion……………………………………………………………………………………10
Bibliographie………………………………………………………………………………….11
Page 3
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
Résumé :
À la suite de la déficience d’un modèle performant de premier plan en économétrie, le monde scientifique semble à jamais opposé sur plusieurs théories économies, parmi lesquelles la courbe de Kuznets Environnementale, l’existence des convergences conditionnelles des économie…etc. Cette crise dont souffre le monde scientifique particulièrement dans le domaine de l’économie m’a poussé à réfléchir sur un nouveau modèle économétrique plus complexe contournant plusieurs défaillances des autres modèles : c’est le modèle à équations simultanées à correction d’erreur standard et spatial des données de panel.
Mots Clés : modèle à équations simultanées à correction d’erreur standard et spatial des données de panel, courbe de Kuznets environnementale.
Abstract :
As a result of the deficiency of a leading model of econometric performance, the scientific world seems forever opposed to several theories economies, including the Kuznets Environmental curve, the existence of conditional convergence of the economy ... etc. This crisis of which the scientific world is suffering particularly in the field of the economy pushed me to reflect on a new more complex econometric model bypassing several failures of the other models: it is the model with simultaneous equations with standard error correction and spatial data panel.
Keywords: simultaneous equation model with standard and spatial error correction of panel data, environmental Kuznets curve.
Page 4
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
Introduction
Le modèle à équations simultanées est un ensemble des équations interreliées. Leurs usages permettent davantage de tenir compte différents aspects du phénomène que l’on désire étudier. La résolution de ce modèle s’obtient par l’intermédiaire de la technique de la substitution de l’équation simple dans la plus complexe pour en réduire le système en une équation. La réduction de ce dernier s’identifie comme l’étape au quelle une variable endogène n’est représentée qu’à droite de l’équation déduite. Etant donné que la solution consiste à quantifier les inconnus de l‘équation sous la contrainte de l’égalité. L’écriture sous forme matricielle est aussi un choix par excellence, qui sert à aboutir une solution par la technique de la diagonalisation. La nature des solutions du système pouvant être réel ou complexe. Dans le cas réel, la trajectoire de la variable est dite amortie (+) ou explosive (-) selon le signe de(s) la valeur (s) de la solution des paramètres. Dans le cas complexe, on parle plutôt d’une évolution cyclique du phénomène.
Le modèle à correction d’erreur n’est estimable quand les résidus du modèle est stationnaire. Les variables d’une équation étant chacune associées avec une marche d’erreur. La récurrence de cette dernière permet dans le calcul de la limite de la variance de déterminer une divergence dû à la dépendance de la composante temporelle. La notion de la cointégration est une première étape de l’estimation de ce modèle. L’une de condition est de contrôlé le même ordre d’intégration des variables de l’équation. Plus les variables sont intégrées du même ordre I(d) et plus la combinaison est d’ordre à d-b où b étant un réel compris entre 0 à d. Les résidus du modèle de cointégration doivent être aussi stationnaire pour pouvoir estimer un modèle à correction d’erreur.
Les modèles spatiaux qui étudient la proximité, le voisinage ou le zonage géographique se distingue du modèle standard par sa possibilité de tenir compte de la dépendance spatiale. Du point de vue économétrique, elle est déterminée grâce à l’autocorrélation spatiale. L’indicateur de Moran (1948) repose sur l’hypothèse nulle de la loi normale centrée et réduite de l’absence d’autocorrélation. Dans ce modèle, le terme d’erreur est un terme composite, qui spécifie la nature du modèle spatiale. L’hétérogénéité est une preuve d’un problème structurelle dans la zone géographique. Par ailleurs, les variables explicatives décalées consistent à des externalités. La matrice des poids au quelle les éléments diagonaux sont nuls est une matrice carrée et contigus, i.e. prenant la valeur o ou 1 selon l’existence ou l’absence des frontières communes. Concernant les modèles spatiaux, il existe sous des hypothèses prédéfinis une liaison entre les différents types des modèle spatiaux. En effet, le modèle Spatial Durbin est connu pour sa robustesse contrairement aux ses conquérants. Bien qu’il soit super sensible aux valeurs manquantes, les techniques géostatistique permet d’interpoler les valeurs manquantes. La sélection du meilleur modèle se fait en général par trois critères parmi lesquels le critère d’ascendante dite aussi Bottom up (test de multiplicateur de Lagrange), l’approche descendante (top down). Elhorst (2010) propose une approche mixte.
Page 5
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
La considération simultanée de la variation temporelle et les observations dans l’analyse économétrique correspond à l’étude de panel.
Cependant, comment tester et estimer un modèle à correction d’erreur à équations simultanées ? Quel changement effectuerons-nous pour déplacer le modèle simple en cas de panel ? Par quel procédé sera-t-il possible pour la mise en évidence d’un modèle à équations simultanées spatiale à correction d’erreur.
L’objet d’étude global est de pouvoir assurer la conjonction de ces modèles en vue de proposer un modèle à correction à équation simultanée en données de panel. Mais de façon plus précise, nous nous intéressons d’abord à aboutir le calcul d’un modèle à équations simultanées à correction d’erreur et de proposer des tests d’identifications. Ensuite nous prétendons analyser dans le cas de panel. S’agissant du cadre spatial, l’étude simultanée du modèle à correction d’erreur à équation simultanées ainsi que les tests de vérifications.
Page 6
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
I. Modèle à équations simultanées
Dans le cadre d’un modèle à équations simultanées, on s’intéresse plutôt à vérifier l’égalité entre une variable à un ensemble des variables prises ensemble avec un terme d’erreur. La convergence de la solution est en rapport avec l’évolution de la variable à expliquer par ses exogènes. Plus une variable décrite mieux sa fluctuation par l’intermédiaire de la variance ou les indicateurs de dispersion confondus et plus sa significativité est importante selon le test de Student. Les inconnus du modèle sont les coefficients qui déterminent les parts de contributions sur la trajectoire de la variable endogène réduite. L’équation estimable contrairement à celle dite identité, qui nécessite d’une résolution repose sur le diagnostic de la relation d’égalité entre une variable et un ensemble des variables associées avec un terme d’erreur qui s’obtient par l’estimation des paramètres (inconnus). L’équation comptable est déterminée par une relation exacte et qui ne sollicite point d’une estimation. De ce fait, plus une relation n’est pas exacte et plus elle est estimable et donc pourvue d’un terme d’erreur qui dégrade l’équilibre parfaite de l’équation. La compatibilité des variables d’un système à équations simultanées est une exigence fondamentale pour sa simplification en une équation réduite. Considérons le modèle structurel suivant : {𝑐𝑡=𝑎𝑦𝑡+𝑏+𝜇𝑡 (1)𝑦𝑡=𝑐𝑡+𝑠𝑡 (2)
Où C est la consommation, Y le revenu, S l’épargne, μ le terme d’erreur, a et b sont les coefficients du modèle. Le calcul de sa forme réduite s’obtient soit par la méthode de substitution ou par calcul matricielle. Sollicitons en premier lieu la méthode de substitution : l‘équation (2) dans l’équation (1) donne : 𝑐𝑡=𝑎[𝑐𝑡+𝑠𝑡]+𝑏+𝜇𝑡 (1−𝑎)𝑐𝑡=𝑎𝑠𝑡+𝑏+𝜇𝑡 𝑐𝑡=𝑎𝑠𝑡1−𝑎+𝑏1−𝑎+𝜇𝑡1−𝑎 (3)
L’écriture matricielle du système à équations simultanées est fondée sur l’assimilation des termes des équation du modèle :
{𝑐𝑡−𝑎𝑦𝑡−𝑏=𝜇𝑡 𝑦𝑡−𝑐𝑡−𝑠𝑡=0
(1−𝑎−1 1)(𝑐𝑡𝑦𝑡)+ (−𝑏 00−1)(1𝑠𝑡)=(𝑢𝑡0)
L’inversion de la matrice des coefficients des variables endogènes met en place la forme réduite. Il en nécessite d’un déterminant non nul et par son calcul de cofacteur nous pouvons
Page 7
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
établir la forme inverse de la matrice. Le cofacteur tout comme le sous-système, il s’agit de remplacer le coefficient par une matrice réduite de dimension selon la règle de Gauss-pivot
L’inter jonction du modèle à équations simultanées avec le modèle à correction d’erreur est susceptible à partir de cette équation. L’équation réduite (3) est -elle alors co intégrable ?
II. Modèle à correction d’erreur en une seule étape
Le modèle à correction d’erreur est un modèle intégrant des variables en niveau et en différences premiers. Les variables auxquelles le calcul de la limite de leurs espérances, de leurs variances ou de leurs covariances dépendent de la composante temporelle sont dites divergent en d’autres termes non stationnaires. Le calcul des estimateurs d’une équation constituée des variables non stationnaire semble incohérent à la réalité observée. Il est donc important et non négligeable de considérer la notion de l’intégration des variables. Granger a démontré que le fait d’avoir le même ordre d’intégration des variables donne une combinaison de ces variables d’ordre nul. L’idée mis en évidence est la divergence dans l’évolution à court terme et sa convergence sur le long terme. La relation de cointégration est une relation d’équilibre qui s’obtient comme suit.
Soit l’équation : 𝑦𝑡=𝑎𝑥𝑡+𝑏+𝜀𝑡
Les séries sont stationnaires d’ordre 1 : 𝑦𝑡→𝐼(1) 𝑒𝑡 𝑥𝑡→𝐼(1) 𝑦𝑡−𝑎𝑥𝑡−𝑏=𝜀𝑡→𝐼(0) 𝑜𝑢 𝑒𝑛𝑐𝑜𝑟𝑒 𝑦𝑡,𝑥𝑡 →𝐶𝐼(𝑑,𝑑)
Le vecteur (1-a-b) caractérise l’équilibre de long terme.
La validité de la stationnarité des résidus issus du modèle permet ou pas l’estimation d’un modèle à correction d’erreur : 𝑦𝑡−𝑎̂𝑥𝑡−𝑏̂=μ𝑡→𝐼(0)
Un exemple du modèle à correction d’erreur s’annonce comme suit : Δ𝑦𝑡=𝛾Δ𝑥𝑡+𝛿(𝑦𝑡−1−𝑎𝑥𝑡−1−𝑏)+𝜗𝑡𝑎𝑣𝑒𝑐 𝛿 <0
𝛿 doit être significativement négatif pour attester l’existence d’une relation de long terme, le retour vers on était d’équilibre, pour ce faire, la variable endogène retardé est censée être inférieur à la relation de long terme (𝑎𝑥𝑡−1+𝑏). Le modèle à correction d’erreur en une seule étape, constituée à la fois de dynamisme de long terme (variable en niveau) et de long termes ( en différence). On peut décomposer la relation de cointégration en deux sous équations :
L’équation de long terme :
Elle est formée par des variable en différences premières auxquelles s’ajoutent un terme d’erreur. On suppose la relation ci-dessous :
𝑦𝑡=𝑎𝑥𝑡+𝑏+𝜀𝑡 (4)
Page 8
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
L’équation de court terme :
𝑦𝑡=𝑎0+𝑎1𝑦𝑡−1+𝑎2𝑥𝑡 +𝑎3𝑥𝑡−1 +𝜗𝑡 (5)
A long terme, le dynamisme de long terme devient le court terme et vice-versa :
𝑦𝑡=𝑦𝑡−1 𝑒𝑡 𝑥𝑡−1 =𝑥𝑡→𝑦𝑡=𝑎0+𝑎1𝑦𝑡+𝑎2𝑥𝑡 +𝑎3𝑥𝑡 +𝜗𝑡 (6)
Le modèle à correction d’erreur s’obtient à partir du dynamisme de court terme :
𝑦𝑡=𝛼0+𝛼1𝑦𝑡−1+𝛼2𝑥𝑡+𝛼3𝑥𝑡+𝜗𝑡
En ajoute de part et d’autre deux termes qui peuvent se simplifier : Δ𝑦𝑡=𝑦𝑡−𝑦𝑡−1=𝛼0+𝛼1𝑦𝑡−1−𝑦𝑡−1+𝛼2𝑥𝑡−𝛼2𝑥𝑡−1+𝛼2𝑥𝑡−1+𝛼3𝑥𝑡+𝜗𝑡
En factorise par coefficient et par variable pour converger vers le modèle à correction d’erreur : Δ𝑦𝑡=𝛾Δ𝑥𝑡+𝛿(𝑦𝑡−1−𝑎𝑥𝑡−1−𝑏)
L’approche de Engle et Granger (1987) ne permet pas d’étudier plusieurs relations de cointégration. Johansen (1988) propose une approche multivarié basé sur le maximum de vraisemblance. Il faut un rang diffèrent de 0 pour qu’il ait une relation de cointégration dans un modèle vectoriel.
III. Modèle spatiale
Le modèle spatial à la différence d’un modèle standard, elle introduit une matrice des poids exogène. La fiabilité de cette approche nécessite le contrôle de l’indicateur de mesure de l’association globale de Moran (1948). L’interaction entre des zones géographiques mesuré par un indice d’ordre 0 et 1. L’autocorrélation spatiale issue d’une organisation particulière d’une zone géographie qui est suspecté d’influencer. Par convention, une région n’est pas contiguë avec elle-même. En revanche, l’intensité de la liaison n’est pas prise en compte par la matrice de poids. On suppose le modèle ci-dessous :
𝑌=𝜌.𝑊𝑌+𝑋.𝛽+𝑊𝑋𝜃+𝜗 (7)
Avec 𝜗=𝛾.𝑊𝜇+𝜀
Dans le cas où 𝛾=0, on obtient le modèle Durbin Spatial
Page 9
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
IV. Modèle à correction d’erreur à équations simultanées
Reprenons l’équation réduite du modèle à équations simultanées. Par changement des variables, on pose : 𝑎1−𝑎=𝜌 , 𝑏1−𝑎=𝜃, 𝜇𝑡1−𝑎 =𝜑𝑡
On obtient :
𝑐𝑡=𝜌𝑠𝑡+𝜃+𝜑𝑡 (8)
Pour élaborer aisément un modèle à correction d’erreur à équations simultanées, il faudrait que le résidu de l’équation réduite soit stationnaire autrement-dit é𝑐𝑡−𝜌𝑠𝑡−𝜃=𝜑𝑡→𝐼(0)
La validation de cette procédure permet l’estimation du modèle à équations simultanées à correction d’erreur, qui s’exprime comme suit :
Δ𝑐𝑡=𝛾Δ𝑠𝑡+𝛿(𝑐𝑡−1−𝑎𝑠𝑡−1−𝑏)+𝜗𝑡𝑎𝑣𝑒𝑐 𝛿 <0 (9)
V. Modèle à correction d’erreur à équations simultanées spatiales
L’introduction de la matrice de poids comme « variable exogène » permettra sans équivoque la prise en compte de l’aspect spatiale dans le modèle à correction d’erreur à équation simultanées. Mais elle nécessite avant tout chose de vérification de la significativité de l’autocorrélation spatiale
L’écriture d’un tel modèle s’exprime comme suit :
Δ𝐶=𝛾.𝑊Δ𝑆+𝛿(𝐶′−𝑎𝑆′−𝑏)+𝑣 𝑎𝑣𝑒𝑐 𝛿 <0 (10)
Avec 𝑣=𝛾.𝑊𝜇+𝜀
VI. L’adaptation en panel des modèles à correction d’erreur à équations simultanées standard et spatiale
La considération de la spécificité de chaque pays d’une même zone avec le cadre spatiale et à correction d’erreur en équations simultanées semble moderniser le point de vue de l’économétrie sur les vérifications des théories économiques. Sans doute, une recherche dans ce domaine permettra l’aboutissement de ces modèles et de test de vérifications
Page 10
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
Conclusion
La réduction en une équation réduite d’un modèle à équations simultanées exigerait une cointégration afin d’en déduire un modèle à correction d’erreur à équations simultanées. Cette approche va certainement proposer des estimateurs encore mieux efficients pour permettre de trancher sur plusieurs articles contradictoires. De plus l’introduction de la matrice des poids dans un tel modèle ne fera que renforcer ses capacités dans la prise en compte des effets spatiaux. Ici, la correction d’erreur est venue avant l’intégration de la matrice des poids. Bien qu’il soit en cours de développement, une équation spatiale à correction d’erreur ou une équation à correction d’erreur spatiale ne serait pas identique. En outre, la prise en compte des aspects plus complexes dans un modèle performant palliant les défaillances des autres modèles permettra de proposer un consensus dans un monde scientifique perplexe. Le modèle par excellence serait celui à correction d’erreur à équations simultanées spatiale ou standard en panel.
Page 11
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
 Bibliographie :
A Trognon - 2003 - L'économétrie des panels en perspective C Hurlin, V Mignon - 2007 - Une synthèse des tests de cointégration sur données de panel F Maurel – 1989 - Modèles à correction d'erreur: l'apport de la théorie de la co-intégration
JP Urbain - 1990 -Modèles à correction d'erreur et fonctions d'importations agrégées J Le Gallo - 2002 - Econométrie spatiale: l'autocorrélation spatiale dans les modèles de régression linéaire R Brunet - 1980 -La composition des modèles dans l'analyse spatiale

Les principes de l’économétrie


On entend par économétrie, la faculté de contrôler les théories économiques. Bien que connue comme étant une science économique, elle a pour objet de formuler d’une manière générale des recommandations d’ordre politique économique.
Cette notion a par ailleurs, vu le jour en 1930 avec la création de la société d’économétrie par Fisher et Frisch. Neuf ans plus tard, Tinbergen proposa le premier modèle économétrique. Mais bien en avant, Moore (1908) avait tenté d’associer l’économie à la statistique.
De nos jours, elle occupe une position incontournable dans la politique économique, budgétaire, commerciale…etc. Il ressort par ces concepts que l’économétrie est un ensemble des méthodes fondées sur la modélisation, l’estimation, le test et la formulation des recommandations. En évidence, elle fait appel à la statistique, l’informatique et l’économie. L’approche sollicitée est plutôt la quête des phénomènes explicatives d’un fait que l’on s’intéresse davantage.
Par la nature de la variable, l’économétrie est dite qualitative ou quantitative suivant le phénomène intéressé. L’affirmation des postulats des intuitions des faits économiques passe par l’économétrie avec des procédés d’envergure probabilistes pour affirmer avec plus de chance possible la véracité d’un fait social.
Expliquer un phénomène ou prendre en compte de la réalité d’un fait au cours du temps n’est guère possible, c’est pourquoi, l’on introduit un terme d’erreur. Elle n’est pas si simple que l’on imagine. En effet, il est question d’un regroupement des variables selon une ou plusieurs équations qui reflète l’interdépendance ou la complexité des phénomènes économiques.
En vérité, plusieurs modèles économétriques peuvent être entremêler de telle sorte qu’affirmer une hypothèse de rapport entre des grandeurs est primordialement jugé de premier plan en économétrie. Aujourd’hui cette discipline montre ses failles en raison des pluralités des résultats selon des approches distinctes.
Toutes les techniques souffrent d’une insuffisance qui témoigne de la non-possibilité de l’existence d’une méthode plus cohérente que possible. Dans un dernier article, j’ai mis en évidence avec des propos économétriques, le développement d’un nouveau modèle dont les
2
Page 2
recherches se poursuivent. Il se veut d’être un pionnier en économétrie et atténuer par la même occasion la discordance persistance des opinions scientifiques et publiques depuis des décennies.
Abdi-Basid ADAN

Les PrinciPes de l’âme

1
Les PrinciPes de l’âme Attachons-nous cette fois-ci aux principes purs et simples de l’âme ? Il est de nature évident qu’il est un sujet relevant du domaine métaphysique. Une thématique assez complexe que nulle la science ne semble l’expliquer. En effet, l’idée directrice de l’âme se rapporte sans aucun doute à celui de la vie, en ce sens au battement du coeur, puis à la respiration, deux grands indicateurs de l’être vivant. En s’y intéressant de plus près, on remarque qu’il s’agit d’une énergie parfaite qui semble animer l’ensemble du corps. Une autosuffisance inestimable en elle. Une puissance inépuisable. Toutefois, voué à un départ obligatoire de ce monde après un séjour qui varie d’un individu ou d’une espèce à l’autre, bien distinct en heure, en jours, en année, en siècles…etc. Un corps et une âme pour former une espèce. Deux principes à l’aboutissement d’un être. Il est usage d’en rappeler qu’il faudrait toujours deux fondements en rapport pour attester une stabilité (fonctionnement) quelconque dans la nature, comme l’attraction gravitationnelle et la sphéricité de la Terre pour l’équilibre à sa surface ; l’expiration et l’inspiration pour la respiration, le frottement et l’oxygène pour le feu, le poids et la poussé d’Archimède…etc. Absolument, on en a appris grâce à la science, à la suite de la fécondation ou la fusion des informations des gamètes pour la finalité de converger vers un embryon, au cours de 9 mois de la création d’une espèce. On ne parvient guère à clarifier le concept de l’âme dans cette phase cruciale pour la compréhension de cette dernière. En réalité, la fusion des informations génétiques ne peut permettre que la formation d’autres cellules ou encore un organisme, mais pas en évidence un esprit ou une âme. Nécessairement, il existerait, donc une étape primordiale pour la conception spirituelle lors de celui de l’organisme. Biens que les cellules ne suffisent pas à former un être qui vit. En ce sens en l’absence d’une composante vitale à sa création qui n’est rien d’autre que l’âme.
2
Aussi mystérieuse qu’elle soit, mais alors d’où viens-t-elle et qu’elle est son
histoire ? A ce jour, il n’existerait aucune information prouvable sur la création de l’âme.
En dépit de quoi, cet esprit ne se rappelle nulle guère de sa période de préexistence
avant son introduction dans le corps. Son histoire semble aboutir bien après la
naissance.
Il y’a quand même une anecdote entre ‘esprit et intelligence’. L’intelligence est
plutôt organique, mais l’esprit intangible se sert pour combler à sa fin. En terme plus
claire, il représente à la fois pour lui, une source de traitement de données visuelles,
audio, odorat, sens, …etc. Mais aussi de stockages d’informations sous forme de
souvenirs, de rappelles, de récitation…etc. Alors, cela suppose bien, que l’esprit se
sert bien de son système de traitement d’information, mais pas autant celui de
stockage, c’est plutôt avec le temps que cette capacité devienne opérationnelle.
Il est évident qu’un enfant pleure à la suite d’une perturbation face à une force
supérieure étrangère. Malgré cet avantage, une fois mature, l’Homme ne se rappelle
plus rien de ses premiers jours, semaines, mois et années.
En ce sens, l’âme ne se souvient de rien de son passé, ni d’ailleurs, du processus
de la formation de l’embryon au foetus, …etc. Enfermer dans un corps, il est le gérant
absolue de l’organisme. En quelque sorte son propre « jungle ». Il arrive parfois, que
l’Homme lui-même n’arrive point à s’auto comprendre, la raison pour laquelle souvent
certaines personnes ont recours aux psys. Elle est certainement due aux informations
de stockages que l’individu a su réaliser sans faire attention.
Cependant, que pouvons-nous connaitre davantage sur lui ? Il est presque
palpable de persuader que la quête de l’âme laissera éclaircir sur la véracité par
justesse recélée de l’Homme. L’âme une fois en dehors de sa carcasse, ne mérite plus
de séjour sur cette Terre, en effet, le temps de désintégration du corps est arrivé, pour
l’âme ne se reste un nouvel départ, alors cela semble raisonnable de solliciter l’’idée
de l’accueil vers un autre espace distinct de ce présent.
Tout comme, l’arrivé dans ce monde, l’esprit écroué dans un corps est accueilli
par une famille ou autrui. Cet espace lui semble inconnu et c’est au fur et à mesure,
qu’il apprend à découvrir c’est que vraiment l’ici-bas.
3
Par la, un premier concept intuitif peut se déduire : Avec conviction, l’âme dans
un corps assure la vie d’ici selon un terme (séjour) quelconque. Il n’en est pas exclu
lors du sommeil, bien que l’inconscient règne dans l’esprit, l’homme continue à respirer
et dès la encore un signe fort d’un corps en vie.
Les philosophes le dénomment l’instinct de vie, cette volonté de vivre
constamment et de ne pas vouloir céder la vie. En réalité, c’est après avoir pris
connaissance de la vie sur Terre, à travers les diverses sensations que l’âme s’attache
beaucoup plus à régner dans ce monde aux formes et aux couleurs variés, assurer sa
survie pour toujours. L’une de raison pour laquelle d’ailleurs, elle éviterait de la quitter.
Un autre point remarquable est que les esprits s’accouplent, à l’inverse des
anges. Les âmes réagissent à travers le corps, et non pas par elle-même. Dans ce
cas précis, nous pouvons désigner ce monde, comme le monde de carcasse ou de
corps, contrairement à celui des âmes.
Existerait-il une vie après la mort ? Dans cette vie, les âmes sont encloses dans
un corps, que nous l’avions précédemment désigné la vie d’ici-bas comme la vie
corporelle. Il est sans doute irréfutable de voir une réalité qui fait souvent peur : celui
de voir le corps vieillir avec le temps. En ce sens, le corps évolue avec le temps.
L’organisme a connu sa création dans ce monde et saura sa fin aussi, pour en devenir
de la poussière. Dès la, il s’agit d’entrevoir qu’il est bien question d’une vie selon un
terme fixe et indirectement liée au corps. Il n’en est point pour un séjour propre à l’âme.
Son histoire est abstraite, il vient spontanément jouer un rôle vital dans le corps
lors la formation de foetus. Ceci spécule sur la possibilité certaine d’une autre vie
réservé spécialement pour l’âme.
Quelle est ses particularités en dehors de ceux que nous venons d’évoquer ?
Parmi les créatures surnaturelles, les anges, les âmes, les diables et les djinns ont
tous plusieurs points communs et divergents. En ce qui concerne, pour les âmes,
celles-ci sont vouées à un terme réduit à gouter la mort par rapport aux autres. Ainsi,
ils existeraient une différence entre l’âme de l’Homme et celui des autres créatures sur
Terre comme les animaux, les végétaux…etc.
Voyons voir ceux que devisent les autres sources ? L’une des sources, la plus
convaincante de la création de l’homme dans sa phase microscopique est mentionnée
à plusieurs reprises dans le coran datant de septièmes siècles, comme rapportent ces
4
versets : « [72] Une fois que Je lui aurai donné sa forme définitive et l’aurai animé de
Mon souffle, vous vous prosternerez devant lui. » 38. Sourate Sâd (Sâd). « [7] C’est
Lui qui a créé toute chose à la perfection et qui a instauré la création de l’homme à
partir de l’argile ; [8] puis d’un vil liquide Il a tiré sa descendance ; [9] puis Il lui a donné
une forme harmonieuse et a insufflé en lui de Son Esprit, vous dotant ainsi de l’ouïe,
de la vue et de l’intelligence. Mais il est rare que vous Lui témoigniez votre
reconnaissance ! » 32. Sourate de la Prosternation (As-Sajda).
En islam, Dieu envoie l’ange pour insuffler l’âme dans l’’organisme en conception.
En effet, selon ce qui a été rapporté dans un récit prophétique (Hadith authentique
rapporté par l’imam Bukhâri et l’imam Mouslim), d’après le compagnon AbdAllah ibn
Massoud :
« le Messager le très véridique nous a dit que l’un de vous est constitué dans
l’utérus de sa mère pendant 40 jours. Et puis, il se transforme en caillot de sang
pendant le même laps de temps. Et puis il devient un foetus pendant le même laps de
temps. Et puis on envoie l’ange pour lui insuffler une âme et l’on donne à l’ange l’ordre
d’écrire quatre mots concernant sa subsistance, le terme de sa vie, son oeuvre et son
sort : sera-t-il heureux ou malheureux. »
Dès lors, qu'en est-il de l'âme face à l'évènement de la mort, si celui-ci ne
consiste de se séparer du corps ? Dans ce cas, peut-on-dire que l'âme est immortelle
?
En vérité, l’âme est à la fois principe de la vie mais aussi de la mort. Il est légitime
de penser que la mort n’est rien du tout la fin pour la composante organique et
matérielle et non celle spirituelle et immatérielle. En ce termes, l’âme est donc
immortelle.
L’équation simple du secret de la vie est celle de dire que l’âme + le corps= la vie
et que le corps lui-même n’est ni la mort ni la vie. Car il existe deux phases lors de la
conception de l’organisme :
D’abord la phase de l’intégration à partir de la formation de cellule oeuf et la phase
dite de la désintégration, qui arrive lors de la décomposition du corps. La biologie ne
semble en aucun cas expliquer cette composante immatérielle de la vie. Il est vrai de
s’apercevoir de l’importance qu’à octroyer la science à l’étude de l’organisme au quelle
coïncide à l’amélioration du bien-être. La santé en ce sens est un aspect de la partie
5
matérielle et non spirituelle. La relation corps et âme est une relation d’interposition
lors de l’épreuve du souffle vital.
Encore, plus étonnant, le corps représente un obstacle pour la faculté de l’âme à
pouvoir aller au-delà de cette composante matérielle au quelle il se trouve dissimuler.
Or la mort pour l’âme est un moment de divulgation de lui-même. Cette épreuve lui
semble ardue et non souhaitée du fait de la déficience de l’expérience de l’existence
sans corps.
Nonobstant, c’est à travers duquel l’âme récent aussi une douleur, un moyen
pour lui de subir une souffrance. Plus une cause organique semble source d’un mal
être et plus la peine demeure consistée. Mais notant bien que le rendement est
croissant de façon conjointe. Il s’agit d’un canal de punition, un point faible de l’âme.
En réalité, la faiblesse de l’Homme n’est donc pas dû à la composante immatérielle
mais à celle matérielle qui émane d’un rattachement entre deux unités de la vie qui ne
sont les gamètes.
Le lien de génération, plus précisément : liens parentaux, de fraternité ou
familiale ne renferme pas l’aspect de l’âme. Dans le monde l’au-delà, cette filiation
résistante dans le rapport entre humain se verra insignifiant. Car c’est dans le monde
de l’organisme que ce lien reste inébranlable.
Mais le rapport conjugal entre homme et femme est aussi organique mais
éventuellement pas spirituelle. Peut-on dire alors qu’il n’y’a pas de genre pour les
âmes. A vrai dire l’imitation de comportements de femmes par les hommes et vice
versa nous laisse envisager cette opinion. Mes propos ne veulent pas notifier que
l’âme est sans sexe, en d’autres termes identiques pour l’homme et la femme et ne se
reproduit pas, mais plutôt laissent en suspens tout question perplexe. Puisque cette
remise en cause ne sont pas si importantes dans l’évolution de la vie quotidienne. La
considération idéale serait d’entrevoir que le monde corporel en un séjour corporel et
qu’une aventure spirituelle nous attend tous dans un temps de non retournement.
Une de chose encore plus remarquable est que l’âme, ce souffle vital ne vieillit
pas, contrairement à l’organisme, qui représente aussi un objet dont le sujet n’est pas
l’Homme mais l’âme. Cela dit j’ai le même âge que ADAM, le père de l’humanité, ou
ma grand-mère et moi sommes de mêmes âges sur le point de vue de l’âme et non du
corps. Par ailleurs, l’après vie est marquée par la disparité des liens familiaux qui
6
unissent plusieurs individus facilement structurables en une arbre généalogique. Se
pourrait-elle être alors la cause première de la vie après la mort. C’est qui est sûre est
que les descendances sont plutôt fondées par un lien d’organisme et non d’une
procréation par souffle vital.
Il est regrettable de voir aussi la biologie, totalement absente sur le défrichage
d’une composante non dérisoire de la vie. On relève aussi que l’âme n’est pas
admiratrice de la vérité. Rien que le fait d’être incorporé dans un corps lui procure la
volonté d’être abstraite et par ce fait de s’éloigner de la vérité. La nature et l’organisme
humain sont interreliés par la composante de la pulsion, qui pousse l’être vivant à
assurer une progéniture permettant de surpeuplée sur Terre. De même la nature et
l‘être vivant sont liés aussi par le câble de la consommation.
En général, la dépendance est complexe que ce que nous l’imaginons, en ce
sens, la vie dépend de l’âme et l’organisme aussi en dépend. Pareillement, la nature,
quant à elle, découle de l’organisme, la raison pour laquelle on est censé protéger les
espèces menacées pour le maintien de la biodiversité.
Autre aspect plus stupéfiante est celui du châtiment divin. La punition de l’âme
se fait indirectement par le biais de l’organisme auquel il se trouve. Mais nous
connaissons aussi, a part la situation initiale de l’âme, le fait d’être insurger dans deux
tombeaux est impressionnant. Or, le corps en est par excellence, sa première tombe.
Au cours, de la grossesse, il se trouve encore que nous eussions été dans un second
organisme : l’initialisation de la vie sur Terre. Nonobstant, le départ est de telle aussi.
Puisque, à la place d’un autre corps, cette fois ci, c’est au sein de la Terre. Le concept
de double tombeau est lié à un début et fin d’une vie.
Mais toujours soit-il que l’âme soit indépendante de l’évolution du temps. La
relativité restreint de Einstein est vrai sur une remise en cause, l’existence de temps.
A vrai dire, le temps existe pour certaines entités. Elle n’est pas absolue, mais relative.
Nous allons développer un autre article sur la perception du temps. Pensez-vous que
l’âme aurait besoin de manger et boire pour survivre ? La réponse la plus éminente et
efficiente est tout simplement non.
7
En effet, la consommation est vouée pour le fonctionnement du corps auquel
l’âme joue un rôle clé. C’est le corps qui nécessite de consommation de bienêtre et
non l’âme. Même, pour le sommeil, le corps demande d’un repos, se peut-il que l’âme
exige une telle requête ? Il est fort palpable que l’âme soit indépendante de plusieurs
comportements corporels humain.
Mais il est à souligner que visiblement, l’âme partage des points communs avec
le divin. L’âme n’est pas un divin, parce qu’elle ne permet pas de donner la vie ou la
mort, mais avec l’appui d’un ange, autrement-dit selon la volonté divine.
Abdi-Basid ADAN

Les préceptes de la statistique


Introduction
Le concept de la Statistique, de nos jours, demeure mitigé depuis fort longtemps. Elle représente une discipline (science) tout comme autre, mais à la différence pour les uns, il s’agit d’une branche de la mathématique pour d’autres un domaine à part entière. Cette fameuse expression a cependant, vu le jour en XVIème siècles (1771 en français, 1798 statistics en anglais). Etymologiquement, elle dérive de l’expression en latin dite « status » (état). Nonobstant, sa mise en oeuvre débute des 3000 avant J.-C. par la collecte d’observations (recensement) sur des personnes ou matériels afin de permettre au décideur public de pouvoir connaitre davantage leur puissance ou leur évolution dans un domaine précis (exemple : Mésopotamie).
Par ailleurs, Wilcox (1935) a relevé plus d’une centaine des définitions sur la notion de la Statistique. Il est clair de voir à quel point ce concept divise les opinions de la communauté scientifique, qui demeure aussi perplexe que l’on imagine. Dans cette circonstance, Kendall à mis en évidence qu’il s’agissait un des propos sur lesquels les statisticiens semblent plus que jamais opposer sur la conception de la Statistique.
Outre, la définition la plus acceptée est paru en 1982, annonçant que la Statistique est un ensemble des méthodes ayant pour vocation de collecter, traiter, interpréter et de diffuser des données statistiques. En général, elle est une science qui est vouée tout simplement aux données autrement-dit une science de données (data science en anglais).
Les statistiques (en singulier une statistique) représentent les procédées par les quels on étudie un ensemble d’observations (personnes, matériels, phénomène naturelle, comportement humain, espèces chimiques, végétaux, les animaux…etc. Il s’agit des approches méthodiques ou grandeurs mathématiques (outils statistiques). D’autant plus, John Tukey considère la ramification de la statistique en deux approches qui s’entre mêlent entre elles : la statistiques exploratoire et la statistique confirmatoire.
Page 2
Du point de vue générale, La Statistique se subdivise en deux sections à savoir la statistique descriptive et celle inférentielle : La première permettant d’abord la mise en place des données (recensement ou échantillonnage) puis l’étude unidimensionnelle et multidimensionnelle des caractères étudiés et collectés sur les observations (prévision, Data Manning, régression, corrélation…).
La seconde s’intéresse plutôt à généraliser avec une marge d’erreur (extrapolation) l’information déduite à partir d’un échantillon représentatif sur l’ensemble de la population. Pour y parvenir à déceler une information pertinente dans un milieu très complexe, on sollicite à la fois des approches mathématique et informatique. Souvent on laisse entendre diverses tendances de domaine d’application de la Statistique. Selon moi, elle est primordialement au service des décideurs publics, de la recherche et de l’enseignement.
I. Statistique descriptive ou exploratoire
L’un de rôle essentiel de la statistique est la faculté en elle de pouvoir extraire une information capitale dans une base de données complexe et structurée, ce qui n’est pas évident avec une simple lecture. Les outils par les quels on parvient à le faire sont divers, certains sont dites paramétriques et d’autres non paramétriques.
Il est indispensable de distinguer deux procédés de la statistique descriptive qui consiste à faciliter une information sur un ensemble d’observations. Ils peuvent s’agir des grandeurs synthétiques ou des figures récapitulatifs sur les caractères étudiés. Sollicitons l’approche unidimensionnelle des variables. Je la définis comme étant la spéculation dans un espace à deux dimensions de la position de chaque observation par rapport à un super-point (centre de gravité) et d’autre part un regroupement selon un critère spécifique.
Néanmoins, la liaison entre deux variables suscite encore plus attention, du fait de sa considération au-delà de la limité de la première analyse. La dépendance, la forte liaison ou la causalité entre deux variables porte un jugement sur le lien entre deux caractères différents observée ou pas sur une même population.
Page 3
Plus encore, cette introspection peut être reporter vers des dimensions assez complexe dépassant largement la visibilité perçue l’oeil. Bongré tout, Cela est rendu possible par la technique d’optimisation linéaire pour consentir une prouesse qui demande assez de réduction sans déformation de la réalité. La statistique descriptive est fondée en générale sur trois grandes approches : approche par rapport à un super-point, approche de regroupement selon un critère et enfin celle qui consiste d’expliciter la liaison entre deux ou plusieurs phénomènes donnés.
II. Statistique mathématique ou inférentielle
L’inférence statistique est d’abord non descriptive mais plutôt inductive. Parce qu’elle consent d’estimer un caractère inconnu d’un ensemble d’observations à partir d’un prélèvement d’un échantillon aux propriétés bien défini. Il s’agit, par cette définition un moyen de contourner la difficulté d’accès à une information très couteuse par une estimation (inférence) avec l’inclusion d’une marge d’erreur.
Le but est de pouvoir conclure sur l’ensemble avec des estimateurs de façon judicieuse et efficace. Toutefois, l’histoire de l’inférence débute à la fin de XIXème siècle avec les travaux des mathématiciens éminents sur la vraisemblance, le test, les intervalles de confiances, la qualité des estimateurs. Ces travaux connaissent une montée époustouflante avec l’arrivées des machines à calculer plus puissantes.
En général, on peut regrouper les techniques de l’inférence statistique, quant à elle, selon deux approches : l’une repose sur l’estimation des paramètres d’une population statistique et l’autre sur l’affirmation d’une hypothèse. C’est pourquoi, elle est, selon moi, la seule discipline capable d’étudier à la fois la réalité et l’irréalité sur les principes de la scientificité.
De ce fait, elle est compétitive avec les autres disciplines sans distinctions notamment la statistique et la physique ont permis la découverte majeure du boson de Higgs ; la statistique et la mathématique : l’entropie de Shannon ; la statistique et la biologie : la classification ascendante hiérarchique…etc.
Page 4
Conclusion :
En terme général, la Statistique est la science qui étudie les données, qui resurgit une information clé dans un ensemble de données (tout comme un trésor dans un coffre) et qui permet de mieux expliciter tous faits ou phénomènes absurdes. D’autre part, elle est un instrument qui part au-delà de la limite des autres sciences (la puissance de la statistique ou super science) avec des techniques d’estimations aléatoires.
Abdi-Basid ADAN

Les Mystères Non résolus de l’Univers

Page
1
Les Mystères Non résolus de l’Univers
L’Homme, supposé être le seul, à posséder la conscience dans l’ensemble de l’univers. Malgré cela, soit loin de tout connaitre, tout maitriser à la surface du globe. Serait-il donc convenable qu’on aborde ici, les mystères non résolus de l’univers ? Loin de la déception, car avec le temps et les prochaines technologies des futures générations, nous saurions beaucoup à apprendre rien que sur ce qu’on connaît déjà. Plusieurs questions sont soulevées et demeurent toujours sans réponse de nos jours. Certaines persistent dans le floue le plus total. Dans cet article, nous allons expliciter quelques-unes de ces notions notamment sur l’existence des extraterrestres et les théories de trou noir.
Un extraterrestre, au sens d’une première définition, est une espèce qui aurait apparu en dehors de la planète Terre et qui sans doute serait logée dans notre univers. Or les astronautes vivaient déjà sur Terre, leur séjour en orbite ne correspond pas à la première conception de la notion extraterrestre. En réalité, cette thèse coïncide à l’idée qu’il s’agisse de l’existence d’une vie autre que celle qui nous est commune.
A vrai dire, il est fort plausible que l’immense univers soit totalement vide et que la Terre soit au centre de l’univers, le noyau névralgique de la théorie de big bang. En vérité, si la NASA (National Aeronautics and Space Administration) enquête sans cesse les signaux d’intelligences extraterrestres. Il convient alors de rappeler que le véritable extraterrestre est sous notre peau en occurrence l’âme. Ce souffle vital intervient dans la période de la grossesse par miracle sans explication scientifique ou cause naturelle.
En ce sens, la deuxième définition découle à partir de ce concept. Un être vivant qui saurait en vie au-delà de l’univers l’est également. Cela veut dire que les anges sont aussi des extraterrestres. Ils nous viennent d’une autre vie et non d’une autre planète.
D’un autre point de vue, les soucoupes volantes ont fait preuve qu’ils sont démunis d’aucun engin propulseur. Nous ne sommes pas, dans ce cas, le seul qui pourrait en avoir l’habilité de concevoir ou la faculté de pensée, il y’a parmi nous
Page
2
d’autres comme les démons à considérer dans cette catégorie. Ils sont suffisamment
habiles pour construire des dispositifs de ces types. Une ancienne civilisation indienne
nous rapporte l’existence des machines volantes d’une technologie avancée et
inconnue dite les Vimanas. Il se pourrait surement qu’ils s’agissent d’un de leurs mises
en oeuvre. Puisque certaines d’entre nous collaborent avec eux (les démons). En
sommes, l’être humain étant en partie terrien et en partie extraterrestre.
Plus loin encore, il est plus extraterrestre que terrien. Autrement-dit l’univers est
le plus grand jardin qui soit offerte à l’espèce humaine ou encore l’on peut dire qu’il n’y
a point d’extraterrestre que l’Homme dans l’univers. Dans un autre article sur le
principe de l’âme, vous pouvez découvrir plus de détails sur les principes de l’âme.
L’autre sujet plus mystique que la première est le trou noir (dite aussi boule
noire). Il est fort concevable de voir une théorie prévoir beaucoup de phénomènes sur
l’univers : la relativité générale de Einstein, même si Marcel Grossmann et de David
Hilbert ont prêté leurs soutiens en mathématique. Dernière chose qui soit encore plus
lumineuse sur la connaissance de trou noir est le rayonnement de Hawking, ce
supposé échappement ou vaporisation lors de l’engloutissement de la matière à ses
alentours.
Selon moi, l’univers ne serait constitué que deux composantes parmi lesquelles
une couche compensatrice de l’attraction (espace-temps) et la gravitation elle-même.
Chaque objet céleste, homogène ou non, déforme l’espace-temps selon sa masse et
lui est infecté automatiquement une force d’attraction qui se propage sur toute sa
circonférence. La gravitation serait-elle le moteur de l’expansion de l’univers ? Est-il
possible de dire qu’elle croit avec le temps en intensité ? Cela ne laisse-t-elle pas
penser à l’élargissement de l’univers et de l’espace-temps ?
C’est qu’on souhaite éclaircir dans cette section, est en rapport avec la notion
de trou noir. Pourvue d’une ouverture uniforme et engloutissant tout matière à son
passage. Il s’agit d’un détachement de l’espace-temps tout comme le trou dans l’ozone
du aux émissions de gaz à effet de serre. La gravitation, en sorte facilement de ce trou,
en effet la notion de l’espace-temps n’est plus à considérer dans le centre du trou noir.
Page
3
Il faudrait que l’on sache une chose qui pourrait peut-être pour la plupart des
gens renonceront en laps de temps. Le temps n’existe que pour certaines matières.
En ce sens, il ne s’applique pas aux êtres qui sont dépourvue de matières que nous
constituons. C’est en occurrence à l’âme, aux démons, aux anges. Ces créatures, le
temps ne leurs concernent pas. Et donc la gravitation elle aussi. Il est loin de dire que
c’est sidérant de voir de soucoupe volante se déplaçant une vitesse hors norme.
Autrement-dit l’espace-temps est une force opposée à la gravitation mais avec une
intensité légèrement faible. Ce déséquilibre explique parfaitement bien l’expansion de
l’univers au cours du temps.
Le temps, la gravitation, l’espace-temps s’entremêlent et ne sont limités que sur
la majorité des matières. Certaines que nous l’ignorions encore sont loin d’être
infectés. L’expansion de l’univers était-il responsable en partie des mouvements des
objets célestes, tout comme les planètes et les astéroïdes qui gravitent autour du
soleil ? En effet, les houles au bord de la mer, eux aussi témoignent de la mobilité de
la Terre. Le secret du trou noir est certainement celle qui dévoilerait avec plus de
précision possible la naissance de l’univers. Dans ce cas, quel message voudrait-elle
nous laisser une supernova ? Une explosion dont l’épicentre se forme d’un
effondrement en un point de l’univers. On ne saurait guère renoncer avec cette thèse,
l’idée de big bang.
En réalité, le diamètre du trou noir ne s’agrandit pas avec le temps. C’est la
résistance de l’espace-temps. Sinon, elle serait catastrophique pour l’humanité. Sa
naissance, en revanche l’est vitale. L’engloutissement du trou noir ne permet qu’une
nouvelle construction de l’espace-temps et donc pour l’univers de s’agrandir et d’être
en mouvement continuel. En ce sens, nous avons à faire un cycle de recréation de
l’univers par l’espace-temps, trou noir et gravitation.
Le trou visiblement noir, est fort concret qu’il soit conçu de la matière noir
complexe très génératrice de force gravitationnelle tout comme l’énergie emmagasiné
dans l’uranium 235. Dans cette condition, les matières qui ont admis l’univers à se
former et celles qui forment par les astres sont totalement différentes. En d’autres
termes, les matières noires sont aussi à l’origine des autres matières qui interagissent
avec la gravitation.
Abdi-Basid ADAN

Les Lois des Probabilités en quelques mots


Comprendre une loi,
C'est de saisir en elle,
Comme étant une règle de droit,
Ecrite et à portée impersonnelle.
Avoir compris la probabilité,
C’est d'avoir saisie à l'opposé,
De ce que désigne la certitude,
Et subordonné par l'exactitude.
Appréhender une loi de probabilité,
N'est ce point d’en étudier,
Les principes proprement dites,
Sur les phénomènes aléatoirement dites.
Imiter cette statistique,
En collaboration avec la mathématique,
Est avant tout,
Contempler un comportement aléatoire,
D'une variable aléatoire,
En dimensions double.
Formalisé mathématiquement,
Par une fonction dite : La densité,
En associement,
Avec un réel et des inconnues à paramétrer.
Laplace Gauss, sa loi de probabilité,
Reste quand même, la meilleure,
Car sans elle, pas des lois des probabilités dérivés
Bon gré tous, c’est elle, la meilleure.
Abdi-Basid ADAN

Les Découvertes en Mathématique de Abdi-Basid ADAN (2009)


1. Théorème de résolution d’une équation d’ordre 2 :
Dans un polynôme de degré deux, pour résoudre il suffit de sélectionner parmi au moins 3 multiples du coefficient associé au terme au carré et d’en déduire la valeur de l’expression homogène. Considérant cette équation ci-après :
12 x² +x = 51
Or 12x4=48 onc x²=4 et x=3 par déduction.
L’équilibre des signes permet la résolution immédiate des équations homogènes.
2. Equation de puissance :
Soient N et n deux entiers naturels, tel que N≥𝑛 :
Nn =(nxN) + (N-n) x N
3. La convergence en nombre 99, 999 :
Interchangeant la Aième et Zième chiffres d’un nombre au fur et à mesure par soustraction, on obtient un nombre de 9 répétitif 99, 999
123-321 …… 99
4. Nombre commutatif
On réalise des opérations sur des termes intercomuté en chiffre, le résultat issu révèle de la même :
69-25=44 ET 96-52=44
75-32 = 43 ET 57-23 = 34
5. Nombre PREMIER ET PAIR (conjoncture de ADAN)
« Pour tous nombre premier leur différence donne un nombre pair sauf pour 2 et 3 ».

Le poids, l’aimant et le mouvement

Le poids, l’aimant et le mouvement
La force de l’attraction gravitationnelle de la Terre est dû à sa propre déformation de l’espace-temps. Une force d’attraction de toute matière contrairement à l’aimant qui n’attire que les objets constituants essentiellement de fer.
L’aimantation est mesurée par l’unité de tesla, il s’agit d’électrocuter les électrons de la matière qui finissent par être chargé. Il est de connaissance sur l’existence de deux bornes d’aimantations : le sud et le nord.
En revanche, l’attraction gravitationnelle semble attirer tout objet sauf le rayonnement électromagnétique dense. Une boucle pour protéger la vie sur Terre des vents de chaleurs dévastatrices.
En s’intéressant de plus prêt sur le fonctionnement de la Terre. On pourrait se demander d’où pourrait provenir exactement l’énergie au centre de la terre ainsi que la gravitation. Si l’on croit davantage à Lavoisier, alors peut-être qu’il s’agirait d’une résultante des transformations de la matière.
Bien que le géothermique nous enseigne de la désintégration de l’uranium, potassium et le thorium au centre de la Terre à plus de 4000 degrés Celsius. Si la déformation de l’espace donne les forces gravitationnelles en même temps le poids. D’où vient-elle les mouvements qu’elle effectue alors. D’où vient -elle-l’énergie de ces mouvements ? C’est qui est sûre les éléments du système solaire sont en mouvement de rotations, les astéroïdes et les planètes. Il y’aurais donc une énergie non découverte qui expliquerait mieux et aussi celle de la formation d’une galaxie. Le secret de tous ces phénomènes est un équilibre parfait ou non parfait tout comme E=MC2
Abdi-Basid ADAN

Le concept de Darwin

Page 1
Le concept de Darwin, une théorie partielle et partiale Le paléontologie et naturaliste anglais Charles Darwin publie l’ouvrage intitulé « Dès L’origines des espèces » en 1859. C’est en effet, une l’hypothèse émise par Jean-Baptiste de Lamarck, 50 ans plutôt. Presque l’ensemble de ses travaux de recherche s’articule autour de trois points essentiels à savoir l’unité, la diversité des espèces et la sélection naturelle. En vérité, l’idée selon laquelle Darwin avance son argument est tout simplement illusoire, car en effet, dans sa formulation, il a suggéré que l’on maintient constamment les fouilles, les recherches de restes des espaces pour appuyés ses postulats et confirmé par la suite sa théorie. A vrai dire, il est décevant de voir naitre un courant Darwinisme persistant avec détermination sans fondement scientifique. Des nouvelles générations les sont victimes de ses influences mensongères sur les évènements des espèces. En dépit de quoi, je démontrerais dans cet article le non-fondement des théories de Darwin sur la lignée humaine de façon générale. De point de vue sur l’unicité des êtres humains, il faut constater par nature, l’existence véritable d’une similitude relative entre plusieurs êtres vivants plus sur le plan anatomique que sur le plan morphologique ; chromosomique ; moléculaire...etc. Aussi bien pour les espèces de même milieu que ceux des milieux distincts. Cela ne doit, en aucun cas nous laisser penser à l’idée d’un ancêtre commun. L’évolution d’un être « origine » ou au pluriel comme présuppose les Darwinismes ne pourront point expliquer le peuplement des milliards des milliards des espèces vivantes sur Terre. Cela constitue une mauvaise interprétation de la nature et de son évolution. En principe, le point commun entre les espèces est irréfutable et doit être vue sous l’angle d’appartenance à un même être suprême et non à un même ancêtre commun. Or c’est sidérant d’expliquer une multiplicité infinie des êtres, sachant que d’autres sont non découvert jusqu’au 2018 comme étant une dérive d’un ou plusieurs ancêtres communs.
Page 2
Sur le principe de la science, la phylogénie n’est pas en adéquation avec l’évolution des espèces dans une dimension beaucoup plus globale, elle est partielle et partiale dans son concept. Le temps ne serait pas le maitre d’oeuvre de la différenciation « magique » de ces espèces. Dans la fouille de restes squelettiques, les découvertes ne cessent de remettre en cause la considération même relative des principes de Darwin. En 2004, une équipe de prospection Aramco Exploration Team aurait découvert, d’ailleurs en Arabie saoudite un squelette humain de proportions hors norme. La trouvaille de restes des hommes géants en serait la preuve incontestable de l’imagination sans preuve de la pensée darwinisme. En ce qui concerne, la diversité des êtres vivants, il est tout à fait clair que la nature tient son équilibre par ce principe, il faut et sans conditions une diversité pour permettre la pérennité de la vie sur Terre. En ce sens, toutes les espèces s’entremêlent entre elles. Cette diversité n’est peut se voir dénoncer, elle est accueillie sans exception, Encore une fois, il faut rappeler que les végétaux sont bien des êtres vivants et que la terre en est ainsi. Je ne saurais comprendre comment Darwin n’a pu penser à ces êtres. Descartes dans son explication apporte sur l’origine des erreurs que le fait de se précipiter pousse davantage les gens à commettre des erreurs. L’attitude de Darwin en est le parfait exemple. Cette diversité, en effet, tire son origine de l’ingéniosité d’un être suprême sans équivoque et sans ambiguïté. En dernier point, la sélection naturelle, bien que définis comme étant l’équilibre de l’équilibre de l’environnement sur les espèces au cours du temps. Il est assez complexe d’en pouvoir comprendre dans une dimension complète. La reproduction de certaines espèces est en faveur des autres. La disparité des autres est avantageuse pour des futures nouvelles espèces, qui peuvent dériver des souches minoritaires. Le complexe environnement, prédateur et proie régie ce principe de complexité par excellence.
Page 3
En conclusion, penser que l’unicité laisse la place à la diversité des espèces est illusoire. Bien que la sélection naturelle soit le moteur de l’évolution des espèces au cours du temps. Ce n’est pas cette dernière qui détermine l’entre période de l’unicité et de la diversité des espèces. Le mystère de l’unicité des êtres vivants reste encore à percer, selon moi c’est la manifestation d’un être suprême, qui en définit. La diversité des êtres en est une essence incontournable pour la stabilité et la continuité de la vie sur Terre. Le rôle de la sélection naturelle doit être perçu comme l’interaction entre environnement et espèces. De cette condition, il n’y pas d’un ancêtre commun dans la ligné humaine avec les singes (surtout le bonobo). La similitude seule ne peut justifier cela, c’est la dérive utopique des courants darwinismes. Abdi-Basid ADAN

L’ascientifique science


La plus belle expression du jour se voudrait entendre dire et s’exposer sous une dénomination de confusion absolue au premier plan, toutefois, vers une purification de vérité à primer tout au long de ce travail de réflexion. Il s’entreprend sans équivoque avec la promulgation d’un point névralgique de la science, par essence proprement dite l’ascientifique science. L’idée sous-jacente que l’on voudrait sous-entendre par excellence s’avère beaucoup plus complexe que la perplexité qu’elle soulève en nous avec la simple lecture.
Avec bonne vaillance et clarté de préférence, la réflexion contenue dans cet article dérive d’une assertion qui ne nous laissera nullement, sans aucune indifférence. Par simplification de chose et dans un élan d’introspection, portant une attention toute singulière aux rapports pouvant bien exister entre trois entités clés qui, nous sont formellement, quotidiennes. En occurrence, ils s’agissent de « l’être humain », « la vie » et « la réalité ».
La recherche optée va dans le sens d’abord de faire diverger les perspectives en vue de les convergées toutes vers une thèse commune, qui n’a explicitement trait qu’avec l’entête de ce présent rapport. En tout état de cause, essentiel soit-il ? que nos convictions suprêmes, à un certain moment, à une certaine étape de la vie, soient amener à se détacher du haut de la grandeur de la considération comme fait véridique et sans contradiction absolue.
Irrationnel de croire que l’être humain existe réellement dans la nature. En effet, la reconnaissance de l’espèce humaine est une question de forme et non de fond. Si l’on arrive à bien distinguer un éléphant d’une fourmi, c’est parce que d’abord le principe de la morphologie tient capitalement à cette notion de classification. Très souvent, l’on prive à toute objet se trouvant dans une pièce du caractère spécifique pour les êtres : celle de l’autodétermination. En d’autres termes, on est tous d’accord qu’un passage d’un coup de vent et le contact visuel avec un autrui ne sont pas interprétés de la même manière par l’esprit. Il y’a toujours cet accord de priorité à l’entité pensante d’une valeur qui lui-même restitue par sa faculté de s’autodéterminée, une sorte de prestige par nature. Or, ce n’est par une âme que l’on peut se permettre. Un corps sans vie n’est pas si diffèrent d’un objet quelconque. Pour signifier ici, que l’être humain est une espèce invisible (âme) qui cherche à avoir une identité visible avec ce corps qui lui sert de quoi prouver son existence sur Terre. De ce fait, l’espèce humaine n’existe que par seulement et indirectement à travers une visibilité corporelle.
2
La question de la vie est de même allégation. Je ne m’attache guère, ici, à la subjectivité
des principes, mais privilégie davantage et sans condition l’universalité de ces derniers. Fort
logique que nous soyons continuellement prises entre les jours et les nuits tout au long des
séjours sur Terre. Vous ne vous êtes jamais posé la question de savoir finalement si tel est le
cas. A vrai dire, l’obscurité de l’univers nous fait plonger dans la nuit et la lumière du soleil
dans le jour. Il n’y pas de jour et de nuit proprement dite, mais c’est plutôt l’embuscade ou « la
danse » de la Terre qui fait naitre cette sensation et qui en est ainsi. Pour dire simplement que
la vie est cette illusion qui laisse penser que tout est normale, logique et réelle. En ce sens, la
vie elle-même ne tiens pas à la logique sous plusieurs angles.
Dans cette condition, la réalité se moque-t-elle sans cesse de nos consciences ? Non pas
du tout, elle est connue pour être stable, constante. Alors d’où vient-elle la réalité perturbatrice ?
Des là, démarre la cogitation sur l’ascientifique science. Qu’est-ce que la science avant tout ?
C’est la faculté d’interagir avec la nature, de comprendre mieux, de la saisir, par-dessus de tout,
de vouloir la domestiquer sous plusieurs formes au gré et à la satisfaction de l’Homme. La quête
du savoir commença des le jour où l’homme a su la contrainte pesante de la vie sur Terre. En
ces termes précis, la science est celle qui nous fait découvrir la réalité. Mais si cette dernière est
utopique, dans ce cas, ne s’est-elle pas tromper d’avance sur cette base ?
Assez simple, comment expliquer avec la science certaines éventualités plausibles ?
Comme par exemple un passage terrestre dans l’océan atlantique comme c’était fut dans la mer
rouge lors de l’exode du peuple hébreu ; les marches des montagnes ; la compatibilité des
natures incompatibles ; l’accouchement d’une brebis par une grotte...etc. On ne saurait dire
qu’il relève de la manifestation divine. Tout à fait, malgré la réalité que l’on ne cesse
d’expliquer, il faut que l’on note que la réalité n’est pas aussi réelle qu’elle ne l’est. Beaucoup
des choses nous sont dissimulées. A tel point que tout est fait pour nous évaluer et qu’une
histoire bien plus différente existe au-delà de la réalité, l’être humain et de la vie.
Il convient de rappeler en dernier mot que la science, bien qu’une admiratrice de la
nature autant que telle. Elle peut toutefois, s‘avérer parfois relative parfois aussi contradictoire
à différents degrés. Comme nous venons de les démontrés, tous ce que nous connaissons de la
réalité sont loin d’être « un tout logique ». Encore une fois, certains phénomènes naturels déjà
découverts persistent toujours dans le flou le plus total, c’est le cas du rocher de Jérusalem en
suspension dans l'air, les mystérieux trous qui se forment à la surface de la terre de ces derniers
temps...etc.
3
Abdi-Basid ADAN

Access Various Climate Data, Manipulate Different File Formats, and Downscale GCM (CMIP5 and CMP6) and RCM (CORDEX and CORDEX CORE) Models Using a Stochastic Approach, ALL with the R programming Language

  Abdi-Basid ADAN "The purpose of this document is to consolidate and improve the various R scripts used to perform the cited analy...