jeudi 13 septembre 2018

Une substance stupéfiante : La chance


La vie sur Terre ne semble pas tenir sur la même droite que celle fut dans le paradis à Adam et Êve. Sans doute, elle est assimilée à une lutte vulgaire pour la survie non seulement pour l’Homme y compris les animaux. C’est plutôt un terrain auquel toutes les espèces sont invitées à développer un savoir-faire au profit de leurs pérennités. Certaines fois, on a l’impression de voir que la vie pour les animaux semble mieux aisée qu’elle ne l’est pour l’Homme.
Du fait du haut de sa conscience, l’être humain est plus que jamais contraint à travailler. Un dur labeur pour subvenir à ses besoins et à celle de sa communauté. Alors, les efforts proprement-dites sont-ils en rapport avec la chance ? Ou encore la Réussite est-elle la combinaison d’un ensemble d’efforts et de chances ? pour y parvenir à consentir des principes suffisamment convaincants, imaginons que nous soyons amenés à progresser pour une sélection finale, une ultime étape.
Il faut que l’on sache que les courages et les peines accumulés n’ont souvent pas tendances à s’égaler aux valeurs escomptées. La situation finale n’est pas plutôt en volteface mais peut se faire valoir être en faveur du consentement d’un individu soit au pire des cas, le contraire.
Comment expliquer un tel phénomène pareil dans la vie courante ? Sans doute, plusieurs d’entre vous, solliciteront le rôle de la chance. Dans cette condition, la chance assume-elle sa part de responsabilité dans l’évolution de chaque épreuve ? Est-elle injuste pour certain qu’elle ne l’est pour d’autre ? une première de chose que nous pouvons légitiment envisager et qui saurait un point commun entre les différents lecteurs : c’est celle de concevoir d’abord l’essence de la chance. Elle est définie comme étant un aléa, un hasard, une vraisemblance. Mais quantifiable et qui est mesurée par une probabilité, le nombre de chance qu’un évènement puisse avoir lieu.
Revenons-y sur l’expérience de la qualification finale pour entrevoir la cohérence. Imaginer que vous faites partie alors de ces finalistes. Vous êtes amené à faire un choix entre quatre lettres ‘A’, ‘B’, ‘C’ et ‘D’. Comme l’expression chance commence par la lettre ‘C’, nous allons prétendre dire que ‘C’ est la bonne option
parmi les autres. Autrement-dit chaque individu des finalistes auront chacun 25
chances sur 100 de célébrer leur moment de gloire.
Malgré vos efforts et la détermination que vous vous êtes engagés pour venir à
la hauteur de vous-même, encore soit-il que le résultat attendu ne saurait guère une
suite directe de vos engagements. Pour ainsi dire que la chance n’est pas observable
mais estimable. Elle est identique pour chaque individu et par conséquent neutre. C’est
plutôt notre libre arbitre qui en détermine la cause première de nos choix, des
conséquences de nos travails et des décisions prisent continuellement dans nos vies.
Cependant, comment allons-nous expliciter la notion absurde qui se rattache à
une situation favorable que pourrait avantager une personne physique ou morale ou
encore un Etat. Il s’agit clairement une longueur d’onde d’avance pour l’individu
possesseur que celui qui en est privé. La chance est-elle dans ce cas un privilège ?
autrement-dit le privilège est-il lui-même une chance ? A juste titre d’exemple, on se
rend compte que les avantages comparatifs entre les pays sont bien complémentaires
sur le plan économique. Il convient de dire qu’il est plutôt bénéfique pour tous, c’està-
dire une externalité positive multilatérale.
Abdi-Basid ADAN

Une information pertinente, prouesses de Data Science, Big Data et de l’Intelligence Artificielle


La révolution américaine a sans équivoque permis à certain nombre
d’américains de maitriser le globe terrestre. Au point même qu’ils sont capables de
retracer l’activité d’une personne donnée ou de prédire ses propres intentions. Une
information pertinente à la place des milliards de dollars de dépenses, qui seront
éventuellement susceptible de partir en fumées.
Elle est aussi efficacement au détriment des efforts colossales voués presque
à l’insignifiant. Il s’agit d’une information au bon moment ! et au bon contexte ! Le « trou
noir » de la toile des principaux réseaux à savoir YouTube, Facebook, Google sont les
personnes non voyantes.
En vérité, ils ne peuvent s’en servir de cette technologie ni par leurs ouïes, leurs
odorats, ou par leurs sens, il faut la vue pour être connecter et laisser ses empruntes
artificielles dans la toile. Ces populations sont à l’abris des méfaits de la civilisation
américaine.
Le Data science ou manipulateur des données massives, collectées illicitement
sur des milliards d’individus à travers le monde constitue ce qu’on appelle le Big Data.
C’est un véritable trésor pour enfin se permettre de tout connaitre. La maitrise totale
de chose. Rien, en quelque sorte ne doit échapper à un certain décideur, du haut de
la pyramide mondiale.
Le progrès technique, bien connu par ses effets positifs incommensurables, son
cercle vicieux engloutie sans indifférence presque tous ce qu’il trouve sur son passage.
Nous l’avions vu à la suite de l’avertissement de Einstein au président Roosevelt sur
le projet nucléaire du régime de Hitler, qui a finalement été la conséquence de l’horreur
et de la fureur de Roosevelt au Japan.
L’intelligence artificielle ou machine non pensante mais simulatrice de
l’intelligence humaine nous doit pas nous laisser insurger mais soyons plus sceptique
toujours. On se tremperais davantage de dire que les peuples précédents n’ont pas
eu la chance de découvrir le bien faits de notre époque.
Etant donné que le monde soit fermé et que rien ne se perd, rien ne se crée,
mais tous se transforme, Lavoisier a encore une fois raison. En effet, les méfaits du
progrès technique se répercute sur nous tout comme l’obscurantisme des anciens
peuples. Il serait plus avantageux parfois de faire remonter le temps que de vivre dans
notre époque. Il y’aurais chaque fois alors une compensation dans la réalité pour que
l’équilibre lui-même soit en parfaite équilibre.
Abdi-Basid ADAN

Principaux Fondements du Sondage


Une quantification, un décompte ou un dénombrement simplifié, bien plus qu’une simple méthode, le sondage est connu comme outils de premier ordre permettant la mise en place d’un échantillon représentatif d’une population statistique (ensemble mère). La finalité première étant d’extrapoler avec une marge d’erreur à minimiser, une information (ou un estimateur) sur l’ensemble de la population.
Les motifs du choix de l’emploi de cette technique sont divers, parmi lesquels, le cout, la durée, les difficultés d’un recensement, le budget, le personnel...etc. Entretenir uns sous partie d’un univers pour globaliser son information considère un certain nombre des critères notamment l’efficacité, la convergence, la consistance (ou robustesse), l’information de Fischer, la précision du l’estimateur obtenu…etc.
En revanche, le plus important de ces exigences sur un estimateurs est la précision (sa convergence). De façon général, la technique de sondage se ramifie en deux sections : d’une part, le sondage empirique (non aléatoire) et d’autre part, le sondage aléatoire. Le coeur du sondage s’attache à la notion de la représentativité, qui a été pour la première fois considéré par George Gallup fondateur de l’American Institute of Public Opinion. De ce fait, la mise en place doit se faire avec plus de précaution et dans la rigueur la plus stricte possible et bien conforme aux principes de sondage.
Les méthodes probabilistes renvoient à l’attribution d’une probabilité à tous le membre de la population et aux échantillons possibles, que l’on nomme probabilité d’inclusion (ou poids du sondage). Parmi ces dernières, on décompte une variété de choix des méthodes selon le coût, la simplicité de la technique d’échantillonnage, la structure, la dispersion des caractères au sein d’une population mère.
En réalité, la méthode la plus simple en technique d’échantillonnage probabiliste, c’est celle de tirage aléatoire simple avec remise et sans remise. Le choix entre ces derniers s’effectue selon la taille de l’échantillon. Généralement, si la taille de celui-ci est grande, la technique avec remise est plus appropriée.
Néanmoins, La précision de l’estimateur s’obtient avec celui non remise. Quand on désire opérer une sélection par stratification en groupe des strates homogènes entre elles (variance intra faible), on se rend compte également que l’estimateur est précis qu’il ne le soit. Améliorer la qualité en réduisant la dispersion, telle est le but visé dans l’échantillonnage. Pour ce faire, on stratifie selon la variable d'intérêt. En effet, dans chaque strate considérée, on maintient le tirage aléatoire des individus avec ou sans remise.
De ce point de vue, l’échantillonnage s’exécute en deux phases. Jusqu’à ici, on a vu que le sans remise est privilégié à celui avec remise dans le cas de petit échantillon ou de taille fini. La stratification est aussi une valeur ajoutée dans la précision de l’estimateur. A la singularité entre ces méthodes, la probabilité de sélection (ou tirage) est identique pour tout individu et bien connu en avance. La procédure du sondage systématique ou celui du tirage de poisson ou de Bernoulli s’annonce un peu différente, la probabilité d’inclusion ou poids du sondage est inégalement répartie dans la population. Elle est sur le plan mathématique, une fonction d’une information auxiliaire. Une variable corrélée avec la variable d’intérêt. L’idéale est de tiré toujours à probabilité avec remise ou sans remise.
Au-delà du sondage simple (élémentaire), pour le cas complexe à savoir celui par grappe et à un ou plusieurs degrés. L’atout consiste essentiellement à réduire le cout et améliorer la précision et donc la qualité de l’estimateur. Ces techniques d’échantillonnage s’emploi dans le cas où la zone de dénombrement, les blocs constitutifs sont homogènes entre eux (variance intergroupe faible). Sa mise en place dépend également du domaine d’étude, de la structure, de la variabilité et surtout de la disponibilité d’une liste exhaustive des individus. A vrai dire, l’échantillonnage élémentaire intervient aussi dans ces processus et constitue ce une de dernière phase d’un sondage à plusieurs degrés.
En ce qui concerne les méthodes empiriques, la méthode de quotas (pseudo aléatoire) est généralement utilisée. La sélection (ou tirage) se fait de telle sorte que l’échantillon puisse avoir la même caractéristique que la population. Ne connaissant pas a priori la probabilité d’inclusion, l’extrapolation ou l’inférence doit être prise avec plus de précaution. La considération de cette méthode réside dans le fait de consacrer un quota pour chaque caractéristique sur lequel se porte l’enquête par sondage. Les autres méthodes empiriques utilisées dans le cas où l’on dispose aucune information sur la population (cas de base de sondage indisponible) sont l’échantillonnages de convenance (ou volontaire) ; Boule de neige ; à priori…etc.
Abdi-Basid ADAN

Modèle Cosmologique de l’Avant Big Bang


Il y’a plus de 13.8 milliards d’années, une super grande déflagration plus puissante jaillissait de nulle part. A la différence d’une détonation, qui ne dépasse pas la vitesse du son, l’explosion qui a eu lieu à l’instant t nul est telle que sa dilatation continue et persistera jusqu’à un temps toujours indéterminé. Est-il un fruit du hasard cosmique ?
Ce qui est inéluctable, la science ne parvient guère avec une certitude absolue de proposer une véritable théorie cosmologique sur l’avant et l’après Big Bang. Bien que le fossé demeure significatif entres les avis des physiciens et astronomes. En Chimie, depuis les premiers travaux, en prêtant connaitre qu’un produit est la résultante d’une réaction de deux ou plusieurs réactifs.
De ce fait, intéressant de plus près de ce phénomène remarquable. La procréation, la fécondation, l’équilibre…etc. presque universellement toute apparition majeure et naturelle n’est que l’apport de deux principes ultra complémentaires. Ce produit (l’univers) n’est pourrait jamais d’être le fruit du hasard, elle est plutôt une explosion unique en son genre.
Mais si nous sollicitons la réalité régie par la science et surtout la mathématique et l’irréalité par le biais de la statistique et de la probabilité. Nous saurons que d’une part et d’autre part l’universalité de certains principes sont communes. Je veux dire que l’origine de l’univers est la combinaison de deux substances parfaites qui se dissoutes sous une nouvelle apparition : l’univers et ses contenus. Il s’agit le secret le plus intime de l’humanité.
Le plus grand centre de recherche des particules du monde, le CERN souhaite comprendre la création de l’univers. Mais atteindre une telle information semble utopique.
En effet, il s’agit des réactifs qui ont permis la formation des tas des galaxies et qui est en plus remarquablement en mouvement grâce à son inertie. L’avant Big Bang est assimilé à la séparation de deux parfaites particules, qui en résulte d’un univers en parfaite équilibre dont les propriétés restent encore à découvrir. Retracer l’histoire de Big Bang c’est connaitre par exemple l’origine de l’âme. Je veux dire par là que l’accès
de ce secret en valeur absolue ne serait jamais possible à moins que la métaphysique y fournir des estimations.
Mais si l’on croit à ces deux parfaites particules, est-il possible d’imaginer donc ce cas que leurs produits puissent donner des particules imparfaites ? L’ultime réponse serait de dire que la combinaison des milliards des particules de nature différentes qui constituent l’univers sont susceptible de se réduire en deux particules parfaites, qui ne sont que les deux clés de la création de l’univers.
Abdi-Basid ADAN

Modèle à Correction à Equations Simultanées : en Cas Standard et Spatial des Données de Panel


Introduction Générale
Rédigé par :
Abdi-Basid ADAN
Thème :
Modèle à Correction d’Erreur à Equations Simultanées : Cas Standard et Spatial des Données de Panel
Article Econométrique
Page 2
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
Table des Matières
Résumé…………………………………………………………………………………………3
Abstract………………………………………………………………………………………...3
Introduction……………………………………………………………………………………4
I. Modèle à équations simultanées…………………………………………………………….6
II.Modèle à correction d’erreur en une seule étape……………………………………………7
III.Modèle spatiale…………………………………………………………………………….8
IV.Modèle à correction d’erreur à équations simultanées …………………………………….9
V.Modèle à correction d’erreur à équations simultanées spatiales…………………………….9
VI.L’adaptation en panel des modèles à correction d’erreur à équations simultanées standard et spatiale………………………………………………………………………………………9
Conclusion……………………………………………………………………………………10
Bibliographie………………………………………………………………………………….11
Page 3
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
Résumé :
À la suite de la déficience d’un modèle performant de premier plan en économétrie, le monde scientifique semble à jamais opposé sur plusieurs théories économies, parmi lesquelles la courbe de Kuznets Environnementale, l’existence des convergences conditionnelles des économie…etc. Cette crise dont souffre le monde scientifique particulièrement dans le domaine de l’économie m’a poussé à réfléchir sur un nouveau modèle économétrique plus complexe contournant plusieurs défaillances des autres modèles : c’est le modèle à équations simultanées à correction d’erreur standard et spatial des données de panel.
Mots Clés : modèle à équations simultanées à correction d’erreur standard et spatial des données de panel, courbe de Kuznets environnementale.
Abstract :
As a result of the deficiency of a leading model of econometric performance, the scientific world seems forever opposed to several theories economies, including the Kuznets Environmental curve, the existence of conditional convergence of the economy ... etc. This crisis of which the scientific world is suffering particularly in the field of the economy pushed me to reflect on a new more complex econometric model bypassing several failures of the other models: it is the model with simultaneous equations with standard error correction and spatial data panel.
Keywords: simultaneous equation model with standard and spatial error correction of panel data, environmental Kuznets curve.
Page 4
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
Introduction
Le modèle à équations simultanées est un ensemble des équations interreliées. Leurs usages permettent davantage de tenir compte différents aspects du phénomène que l’on désire étudier. La résolution de ce modèle s’obtient par l’intermédiaire de la technique de la substitution de l’équation simple dans la plus complexe pour en réduire le système en une équation. La réduction de ce dernier s’identifie comme l’étape au quelle une variable endogène n’est représentée qu’à droite de l’équation déduite. Etant donné que la solution consiste à quantifier les inconnus de l‘équation sous la contrainte de l’égalité. L’écriture sous forme matricielle est aussi un choix par excellence, qui sert à aboutir une solution par la technique de la diagonalisation. La nature des solutions du système pouvant être réel ou complexe. Dans le cas réel, la trajectoire de la variable est dite amortie (+) ou explosive (-) selon le signe de(s) la valeur (s) de la solution des paramètres. Dans le cas complexe, on parle plutôt d’une évolution cyclique du phénomène.
Le modèle à correction d’erreur n’est estimable quand les résidus du modèle est stationnaire. Les variables d’une équation étant chacune associées avec une marche d’erreur. La récurrence de cette dernière permet dans le calcul de la limite de la variance de déterminer une divergence dû à la dépendance de la composante temporelle. La notion de la cointégration est une première étape de l’estimation de ce modèle. L’une de condition est de contrôlé le même ordre d’intégration des variables de l’équation. Plus les variables sont intégrées du même ordre I(d) et plus la combinaison est d’ordre à d-b où b étant un réel compris entre 0 à d. Les résidus du modèle de cointégration doivent être aussi stationnaire pour pouvoir estimer un modèle à correction d’erreur.
Les modèles spatiaux qui étudient la proximité, le voisinage ou le zonage géographique se distingue du modèle standard par sa possibilité de tenir compte de la dépendance spatiale. Du point de vue économétrique, elle est déterminée grâce à l’autocorrélation spatiale. L’indicateur de Moran (1948) repose sur l’hypothèse nulle de la loi normale centrée et réduite de l’absence d’autocorrélation. Dans ce modèle, le terme d’erreur est un terme composite, qui spécifie la nature du modèle spatiale. L’hétérogénéité est une preuve d’un problème structurelle dans la zone géographique. Par ailleurs, les variables explicatives décalées consistent à des externalités. La matrice des poids au quelle les éléments diagonaux sont nuls est une matrice carrée et contigus, i.e. prenant la valeur o ou 1 selon l’existence ou l’absence des frontières communes. Concernant les modèles spatiaux, il existe sous des hypothèses prédéfinis une liaison entre les différents types des modèle spatiaux. En effet, le modèle Spatial Durbin est connu pour sa robustesse contrairement aux ses conquérants. Bien qu’il soit super sensible aux valeurs manquantes, les techniques géostatistique permet d’interpoler les valeurs manquantes. La sélection du meilleur modèle se fait en général par trois critères parmi lesquels le critère d’ascendante dite aussi Bottom up (test de multiplicateur de Lagrange), l’approche descendante (top down). Elhorst (2010) propose une approche mixte.
Page 5
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
La considération simultanée de la variation temporelle et les observations dans l’analyse économétrique correspond à l’étude de panel.
Cependant, comment tester et estimer un modèle à correction d’erreur à équations simultanées ? Quel changement effectuerons-nous pour déplacer le modèle simple en cas de panel ? Par quel procédé sera-t-il possible pour la mise en évidence d’un modèle à équations simultanées spatiale à correction d’erreur.
L’objet d’étude global est de pouvoir assurer la conjonction de ces modèles en vue de proposer un modèle à correction à équation simultanée en données de panel. Mais de façon plus précise, nous nous intéressons d’abord à aboutir le calcul d’un modèle à équations simultanées à correction d’erreur et de proposer des tests d’identifications. Ensuite nous prétendons analyser dans le cas de panel. S’agissant du cadre spatial, l’étude simultanée du modèle à correction d’erreur à équation simultanées ainsi que les tests de vérifications.
Page 6
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
I. Modèle à équations simultanées
Dans le cadre d’un modèle à équations simultanées, on s’intéresse plutôt à vérifier l’égalité entre une variable à un ensemble des variables prises ensemble avec un terme d’erreur. La convergence de la solution est en rapport avec l’évolution de la variable à expliquer par ses exogènes. Plus une variable décrite mieux sa fluctuation par l’intermédiaire de la variance ou les indicateurs de dispersion confondus et plus sa significativité est importante selon le test de Student. Les inconnus du modèle sont les coefficients qui déterminent les parts de contributions sur la trajectoire de la variable endogène réduite. L’équation estimable contrairement à celle dite identité, qui nécessite d’une résolution repose sur le diagnostic de la relation d’égalité entre une variable et un ensemble des variables associées avec un terme d’erreur qui s’obtient par l’estimation des paramètres (inconnus). L’équation comptable est déterminée par une relation exacte et qui ne sollicite point d’une estimation. De ce fait, plus une relation n’est pas exacte et plus elle est estimable et donc pourvue d’un terme d’erreur qui dégrade l’équilibre parfaite de l’équation. La compatibilité des variables d’un système à équations simultanées est une exigence fondamentale pour sa simplification en une équation réduite. Considérons le modèle structurel suivant : {𝑐𝑡=𝑎𝑦𝑡+𝑏+𝜇𝑡 (1)𝑦𝑡=𝑐𝑡+𝑠𝑡 (2)
Où C est la consommation, Y le revenu, S l’épargne, μ le terme d’erreur, a et b sont les coefficients du modèle. Le calcul de sa forme réduite s’obtient soit par la méthode de substitution ou par calcul matricielle. Sollicitons en premier lieu la méthode de substitution : l‘équation (2) dans l’équation (1) donne : 𝑐𝑡=𝑎[𝑐𝑡+𝑠𝑡]+𝑏+𝜇𝑡 (1−𝑎)𝑐𝑡=𝑎𝑠𝑡+𝑏+𝜇𝑡 𝑐𝑡=𝑎𝑠𝑡1−𝑎+𝑏1−𝑎+𝜇𝑡1−𝑎 (3)
L’écriture matricielle du système à équations simultanées est fondée sur l’assimilation des termes des équation du modèle :
{𝑐𝑡−𝑎𝑦𝑡−𝑏=𝜇𝑡 𝑦𝑡−𝑐𝑡−𝑠𝑡=0
(1−𝑎−1 1)(𝑐𝑡𝑦𝑡)+ (−𝑏 00−1)(1𝑠𝑡)=(𝑢𝑡0)
L’inversion de la matrice des coefficients des variables endogènes met en place la forme réduite. Il en nécessite d’un déterminant non nul et par son calcul de cofacteur nous pouvons
Page 7
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
établir la forme inverse de la matrice. Le cofacteur tout comme le sous-système, il s’agit de remplacer le coefficient par une matrice réduite de dimension selon la règle de Gauss-pivot
L’inter jonction du modèle à équations simultanées avec le modèle à correction d’erreur est susceptible à partir de cette équation. L’équation réduite (3) est -elle alors co intégrable ?
II. Modèle à correction d’erreur en une seule étape
Le modèle à correction d’erreur est un modèle intégrant des variables en niveau et en différences premiers. Les variables auxquelles le calcul de la limite de leurs espérances, de leurs variances ou de leurs covariances dépendent de la composante temporelle sont dites divergent en d’autres termes non stationnaires. Le calcul des estimateurs d’une équation constituée des variables non stationnaire semble incohérent à la réalité observée. Il est donc important et non négligeable de considérer la notion de l’intégration des variables. Granger a démontré que le fait d’avoir le même ordre d’intégration des variables donne une combinaison de ces variables d’ordre nul. L’idée mis en évidence est la divergence dans l’évolution à court terme et sa convergence sur le long terme. La relation de cointégration est une relation d’équilibre qui s’obtient comme suit.
Soit l’équation : 𝑦𝑡=𝑎𝑥𝑡+𝑏+𝜀𝑡
Les séries sont stationnaires d’ordre 1 : 𝑦𝑡→𝐼(1) 𝑒𝑡 𝑥𝑡→𝐼(1) 𝑦𝑡−𝑎𝑥𝑡−𝑏=𝜀𝑡→𝐼(0) 𝑜𝑢 𝑒𝑛𝑐𝑜𝑟𝑒 𝑦𝑡,𝑥𝑡 →𝐶𝐼(𝑑,𝑑)
Le vecteur (1-a-b) caractérise l’équilibre de long terme.
La validité de la stationnarité des résidus issus du modèle permet ou pas l’estimation d’un modèle à correction d’erreur : 𝑦𝑡−𝑎̂𝑥𝑡−𝑏̂=μ𝑡→𝐼(0)
Un exemple du modèle à correction d’erreur s’annonce comme suit : Δ𝑦𝑡=𝛾Δ𝑥𝑡+𝛿(𝑦𝑡−1−𝑎𝑥𝑡−1−𝑏)+𝜗𝑡𝑎𝑣𝑒𝑐 𝛿 <0
𝛿 doit être significativement négatif pour attester l’existence d’une relation de long terme, le retour vers on était d’équilibre, pour ce faire, la variable endogène retardé est censée être inférieur à la relation de long terme (𝑎𝑥𝑡−1+𝑏). Le modèle à correction d’erreur en une seule étape, constituée à la fois de dynamisme de long terme (variable en niveau) et de long termes ( en différence). On peut décomposer la relation de cointégration en deux sous équations :
L’équation de long terme :
Elle est formée par des variable en différences premières auxquelles s’ajoutent un terme d’erreur. On suppose la relation ci-dessous :
𝑦𝑡=𝑎𝑥𝑡+𝑏+𝜀𝑡 (4)
Page 8
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
L’équation de court terme :
𝑦𝑡=𝑎0+𝑎1𝑦𝑡−1+𝑎2𝑥𝑡 +𝑎3𝑥𝑡−1 +𝜗𝑡 (5)
A long terme, le dynamisme de long terme devient le court terme et vice-versa :
𝑦𝑡=𝑦𝑡−1 𝑒𝑡 𝑥𝑡−1 =𝑥𝑡→𝑦𝑡=𝑎0+𝑎1𝑦𝑡+𝑎2𝑥𝑡 +𝑎3𝑥𝑡 +𝜗𝑡 (6)
Le modèle à correction d’erreur s’obtient à partir du dynamisme de court terme :
𝑦𝑡=𝛼0+𝛼1𝑦𝑡−1+𝛼2𝑥𝑡+𝛼3𝑥𝑡+𝜗𝑡
En ajoute de part et d’autre deux termes qui peuvent se simplifier : Δ𝑦𝑡=𝑦𝑡−𝑦𝑡−1=𝛼0+𝛼1𝑦𝑡−1−𝑦𝑡−1+𝛼2𝑥𝑡−𝛼2𝑥𝑡−1+𝛼2𝑥𝑡−1+𝛼3𝑥𝑡+𝜗𝑡
En factorise par coefficient et par variable pour converger vers le modèle à correction d’erreur : Δ𝑦𝑡=𝛾Δ𝑥𝑡+𝛿(𝑦𝑡−1−𝑎𝑥𝑡−1−𝑏)
L’approche de Engle et Granger (1987) ne permet pas d’étudier plusieurs relations de cointégration. Johansen (1988) propose une approche multivarié basé sur le maximum de vraisemblance. Il faut un rang diffèrent de 0 pour qu’il ait une relation de cointégration dans un modèle vectoriel.
III. Modèle spatiale
Le modèle spatial à la différence d’un modèle standard, elle introduit une matrice des poids exogène. La fiabilité de cette approche nécessite le contrôle de l’indicateur de mesure de l’association globale de Moran (1948). L’interaction entre des zones géographiques mesuré par un indice d’ordre 0 et 1. L’autocorrélation spatiale issue d’une organisation particulière d’une zone géographie qui est suspecté d’influencer. Par convention, une région n’est pas contiguë avec elle-même. En revanche, l’intensité de la liaison n’est pas prise en compte par la matrice de poids. On suppose le modèle ci-dessous :
𝑌=𝜌.𝑊𝑌+𝑋.𝛽+𝑊𝑋𝜃+𝜗 (7)
Avec 𝜗=𝛾.𝑊𝜇+𝜀
Dans le cas où 𝛾=0, on obtient le modèle Durbin Spatial
Page 9
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
IV. Modèle à correction d’erreur à équations simultanées
Reprenons l’équation réduite du modèle à équations simultanées. Par changement des variables, on pose : 𝑎1−𝑎=𝜌 , 𝑏1−𝑎=𝜃, 𝜇𝑡1−𝑎 =𝜑𝑡
On obtient :
𝑐𝑡=𝜌𝑠𝑡+𝜃+𝜑𝑡 (8)
Pour élaborer aisément un modèle à correction d’erreur à équations simultanées, il faudrait que le résidu de l’équation réduite soit stationnaire autrement-dit é𝑐𝑡−𝜌𝑠𝑡−𝜃=𝜑𝑡→𝐼(0)
La validation de cette procédure permet l’estimation du modèle à équations simultanées à correction d’erreur, qui s’exprime comme suit :
Δ𝑐𝑡=𝛾Δ𝑠𝑡+𝛿(𝑐𝑡−1−𝑎𝑠𝑡−1−𝑏)+𝜗𝑡𝑎𝑣𝑒𝑐 𝛿 <0 (9)
V. Modèle à correction d’erreur à équations simultanées spatiales
L’introduction de la matrice de poids comme « variable exogène » permettra sans équivoque la prise en compte de l’aspect spatiale dans le modèle à correction d’erreur à équation simultanées. Mais elle nécessite avant tout chose de vérification de la significativité de l’autocorrélation spatiale
L’écriture d’un tel modèle s’exprime comme suit :
Δ𝐶=𝛾.𝑊Δ𝑆+𝛿(𝐶′−𝑎𝑆′−𝑏)+𝑣 𝑎𝑣𝑒𝑐 𝛿 <0 (10)
Avec 𝑣=𝛾.𝑊𝜇+𝜀
VI. L’adaptation en panel des modèles à correction d’erreur à équations simultanées standard et spatiale
La considération de la spécificité de chaque pays d’une même zone avec le cadre spatiale et à correction d’erreur en équations simultanées semble moderniser le point de vue de l’économétrie sur les vérifications des théories économiques. Sans doute, une recherche dans ce domaine permettra l’aboutissement de ces modèles et de test de vérifications
Page 10
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
Conclusion
La réduction en une équation réduite d’un modèle à équations simultanées exigerait une cointégration afin d’en déduire un modèle à correction d’erreur à équations simultanées. Cette approche va certainement proposer des estimateurs encore mieux efficients pour permettre de trancher sur plusieurs articles contradictoires. De plus l’introduction de la matrice des poids dans un tel modèle ne fera que renforcer ses capacités dans la prise en compte des effets spatiaux. Ici, la correction d’erreur est venue avant l’intégration de la matrice des poids. Bien qu’il soit en cours de développement, une équation spatiale à correction d’erreur ou une équation à correction d’erreur spatiale ne serait pas identique. En outre, la prise en compte des aspects plus complexes dans un modèle performant palliant les défaillances des autres modèles permettra de proposer un consensus dans un monde scientifique perplexe. Le modèle par excellence serait celui à correction d’erreur à équations simultanées spatiale ou standard en panel.
Page 11
Modèle à Correction à Equations Simultanées : en Cas
Standard et Spatial des Données de Panel
Introduction Générale
 Bibliographie :
A Trognon - 2003 - L'économétrie des panels en perspective C Hurlin, V Mignon - 2007 - Une synthèse des tests de cointégration sur données de panel F Maurel – 1989 - Modèles à correction d'erreur: l'apport de la théorie de la co-intégration
JP Urbain - 1990 -Modèles à correction d'erreur et fonctions d'importations agrégées J Le Gallo - 2002 - Econométrie spatiale: l'autocorrélation spatiale dans les modèles de régression linéaire R Brunet - 1980 -La composition des modèles dans l'analyse spatiale

Les principes de l’économétrie


On entend par économétrie, la faculté de contrôler les théories économiques. Bien que connue comme étant une science économique, elle a pour objet de formuler d’une manière générale des recommandations d’ordre politique économique.
Cette notion a par ailleurs, vu le jour en 1930 avec la création de la société d’économétrie par Fisher et Frisch. Neuf ans plus tard, Tinbergen proposa le premier modèle économétrique. Mais bien en avant, Moore (1908) avait tenté d’associer l’économie à la statistique.
De nos jours, elle occupe une position incontournable dans la politique économique, budgétaire, commerciale…etc. Il ressort par ces concepts que l’économétrie est un ensemble des méthodes fondées sur la modélisation, l’estimation, le test et la formulation des recommandations. En évidence, elle fait appel à la statistique, l’informatique et l’économie. L’approche sollicitée est plutôt la quête des phénomènes explicatives d’un fait que l’on s’intéresse davantage.
Par la nature de la variable, l’économétrie est dite qualitative ou quantitative suivant le phénomène intéressé. L’affirmation des postulats des intuitions des faits économiques passe par l’économétrie avec des procédés d’envergure probabilistes pour affirmer avec plus de chance possible la véracité d’un fait social.
Expliquer un phénomène ou prendre en compte de la réalité d’un fait au cours du temps n’est guère possible, c’est pourquoi, l’on introduit un terme d’erreur. Elle n’est pas si simple que l’on imagine. En effet, il est question d’un regroupement des variables selon une ou plusieurs équations qui reflète l’interdépendance ou la complexité des phénomènes économiques.
En vérité, plusieurs modèles économétriques peuvent être entremêler de telle sorte qu’affirmer une hypothèse de rapport entre des grandeurs est primordialement jugé de premier plan en économétrie. Aujourd’hui cette discipline montre ses failles en raison des pluralités des résultats selon des approches distinctes.
Toutes les techniques souffrent d’une insuffisance qui témoigne de la non-possibilité de l’existence d’une méthode plus cohérente que possible. Dans un dernier article, j’ai mis en évidence avec des propos économétriques, le développement d’un nouveau modèle dont les
2
Page 2
recherches se poursuivent. Il se veut d’être un pionnier en économétrie et atténuer par la même occasion la discordance persistance des opinions scientifiques et publiques depuis des décennies.
Abdi-Basid ADAN

Les PrinciPes de l’âme

1
Les PrinciPes de l’âme Attachons-nous cette fois-ci aux principes purs et simples de l’âme ? Il est de nature évident qu’il est un sujet relevant du domaine métaphysique. Une thématique assez complexe que nulle la science ne semble l’expliquer. En effet, l’idée directrice de l’âme se rapporte sans aucun doute à celui de la vie, en ce sens au battement du coeur, puis à la respiration, deux grands indicateurs de l’être vivant. En s’y intéressant de plus près, on remarque qu’il s’agit d’une énergie parfaite qui semble animer l’ensemble du corps. Une autosuffisance inestimable en elle. Une puissance inépuisable. Toutefois, voué à un départ obligatoire de ce monde après un séjour qui varie d’un individu ou d’une espèce à l’autre, bien distinct en heure, en jours, en année, en siècles…etc. Un corps et une âme pour former une espèce. Deux principes à l’aboutissement d’un être. Il est usage d’en rappeler qu’il faudrait toujours deux fondements en rapport pour attester une stabilité (fonctionnement) quelconque dans la nature, comme l’attraction gravitationnelle et la sphéricité de la Terre pour l’équilibre à sa surface ; l’expiration et l’inspiration pour la respiration, le frottement et l’oxygène pour le feu, le poids et la poussé d’Archimède…etc. Absolument, on en a appris grâce à la science, à la suite de la fécondation ou la fusion des informations des gamètes pour la finalité de converger vers un embryon, au cours de 9 mois de la création d’une espèce. On ne parvient guère à clarifier le concept de l’âme dans cette phase cruciale pour la compréhension de cette dernière. En réalité, la fusion des informations génétiques ne peut permettre que la formation d’autres cellules ou encore un organisme, mais pas en évidence un esprit ou une âme. Nécessairement, il existerait, donc une étape primordiale pour la conception spirituelle lors de celui de l’organisme. Biens que les cellules ne suffisent pas à former un être qui vit. En ce sens en l’absence d’une composante vitale à sa création qui n’est rien d’autre que l’âme.
2
Aussi mystérieuse qu’elle soit, mais alors d’où viens-t-elle et qu’elle est son
histoire ? A ce jour, il n’existerait aucune information prouvable sur la création de l’âme.
En dépit de quoi, cet esprit ne se rappelle nulle guère de sa période de préexistence
avant son introduction dans le corps. Son histoire semble aboutir bien après la
naissance.
Il y’a quand même une anecdote entre ‘esprit et intelligence’. L’intelligence est
plutôt organique, mais l’esprit intangible se sert pour combler à sa fin. En terme plus
claire, il représente à la fois pour lui, une source de traitement de données visuelles,
audio, odorat, sens, …etc. Mais aussi de stockages d’informations sous forme de
souvenirs, de rappelles, de récitation…etc. Alors, cela suppose bien, que l’esprit se
sert bien de son système de traitement d’information, mais pas autant celui de
stockage, c’est plutôt avec le temps que cette capacité devienne opérationnelle.
Il est évident qu’un enfant pleure à la suite d’une perturbation face à une force
supérieure étrangère. Malgré cet avantage, une fois mature, l’Homme ne se rappelle
plus rien de ses premiers jours, semaines, mois et années.
En ce sens, l’âme ne se souvient de rien de son passé, ni d’ailleurs, du processus
de la formation de l’embryon au foetus, …etc. Enfermer dans un corps, il est le gérant
absolue de l’organisme. En quelque sorte son propre « jungle ». Il arrive parfois, que
l’Homme lui-même n’arrive point à s’auto comprendre, la raison pour laquelle souvent
certaines personnes ont recours aux psys. Elle est certainement due aux informations
de stockages que l’individu a su réaliser sans faire attention.
Cependant, que pouvons-nous connaitre davantage sur lui ? Il est presque
palpable de persuader que la quête de l’âme laissera éclaircir sur la véracité par
justesse recélée de l’Homme. L’âme une fois en dehors de sa carcasse, ne mérite plus
de séjour sur cette Terre, en effet, le temps de désintégration du corps est arrivé, pour
l’âme ne se reste un nouvel départ, alors cela semble raisonnable de solliciter l’’idée
de l’accueil vers un autre espace distinct de ce présent.
Tout comme, l’arrivé dans ce monde, l’esprit écroué dans un corps est accueilli
par une famille ou autrui. Cet espace lui semble inconnu et c’est au fur et à mesure,
qu’il apprend à découvrir c’est que vraiment l’ici-bas.
3
Par la, un premier concept intuitif peut se déduire : Avec conviction, l’âme dans
un corps assure la vie d’ici selon un terme (séjour) quelconque. Il n’en est pas exclu
lors du sommeil, bien que l’inconscient règne dans l’esprit, l’homme continue à respirer
et dès la encore un signe fort d’un corps en vie.
Les philosophes le dénomment l’instinct de vie, cette volonté de vivre
constamment et de ne pas vouloir céder la vie. En réalité, c’est après avoir pris
connaissance de la vie sur Terre, à travers les diverses sensations que l’âme s’attache
beaucoup plus à régner dans ce monde aux formes et aux couleurs variés, assurer sa
survie pour toujours. L’une de raison pour laquelle d’ailleurs, elle éviterait de la quitter.
Un autre point remarquable est que les esprits s’accouplent, à l’inverse des
anges. Les âmes réagissent à travers le corps, et non pas par elle-même. Dans ce
cas précis, nous pouvons désigner ce monde, comme le monde de carcasse ou de
corps, contrairement à celui des âmes.
Existerait-il une vie après la mort ? Dans cette vie, les âmes sont encloses dans
un corps, que nous l’avions précédemment désigné la vie d’ici-bas comme la vie
corporelle. Il est sans doute irréfutable de voir une réalité qui fait souvent peur : celui
de voir le corps vieillir avec le temps. En ce sens, le corps évolue avec le temps.
L’organisme a connu sa création dans ce monde et saura sa fin aussi, pour en devenir
de la poussière. Dès la, il s’agit d’entrevoir qu’il est bien question d’une vie selon un
terme fixe et indirectement liée au corps. Il n’en est point pour un séjour propre à l’âme.
Son histoire est abstraite, il vient spontanément jouer un rôle vital dans le corps
lors la formation de foetus. Ceci spécule sur la possibilité certaine d’une autre vie
réservé spécialement pour l’âme.
Quelle est ses particularités en dehors de ceux que nous venons d’évoquer ?
Parmi les créatures surnaturelles, les anges, les âmes, les diables et les djinns ont
tous plusieurs points communs et divergents. En ce qui concerne, pour les âmes,
celles-ci sont vouées à un terme réduit à gouter la mort par rapport aux autres. Ainsi,
ils existeraient une différence entre l’âme de l’Homme et celui des autres créatures sur
Terre comme les animaux, les végétaux…etc.
Voyons voir ceux que devisent les autres sources ? L’une des sources, la plus
convaincante de la création de l’homme dans sa phase microscopique est mentionnée
à plusieurs reprises dans le coran datant de septièmes siècles, comme rapportent ces
4
versets : « [72] Une fois que Je lui aurai donné sa forme définitive et l’aurai animé de
Mon souffle, vous vous prosternerez devant lui. » 38. Sourate Sâd (Sâd). « [7] C’est
Lui qui a créé toute chose à la perfection et qui a instauré la création de l’homme à
partir de l’argile ; [8] puis d’un vil liquide Il a tiré sa descendance ; [9] puis Il lui a donné
une forme harmonieuse et a insufflé en lui de Son Esprit, vous dotant ainsi de l’ouïe,
de la vue et de l’intelligence. Mais il est rare que vous Lui témoigniez votre
reconnaissance ! » 32. Sourate de la Prosternation (As-Sajda).
En islam, Dieu envoie l’ange pour insuffler l’âme dans l’’organisme en conception.
En effet, selon ce qui a été rapporté dans un récit prophétique (Hadith authentique
rapporté par l’imam Bukhâri et l’imam Mouslim), d’après le compagnon AbdAllah ibn
Massoud :
« le Messager le très véridique nous a dit que l’un de vous est constitué dans
l’utérus de sa mère pendant 40 jours. Et puis, il se transforme en caillot de sang
pendant le même laps de temps. Et puis il devient un foetus pendant le même laps de
temps. Et puis on envoie l’ange pour lui insuffler une âme et l’on donne à l’ange l’ordre
d’écrire quatre mots concernant sa subsistance, le terme de sa vie, son oeuvre et son
sort : sera-t-il heureux ou malheureux. »
Dès lors, qu'en est-il de l'âme face à l'évènement de la mort, si celui-ci ne
consiste de se séparer du corps ? Dans ce cas, peut-on-dire que l'âme est immortelle
?
En vérité, l’âme est à la fois principe de la vie mais aussi de la mort. Il est légitime
de penser que la mort n’est rien du tout la fin pour la composante organique et
matérielle et non celle spirituelle et immatérielle. En ce termes, l’âme est donc
immortelle.
L’équation simple du secret de la vie est celle de dire que l’âme + le corps= la vie
et que le corps lui-même n’est ni la mort ni la vie. Car il existe deux phases lors de la
conception de l’organisme :
D’abord la phase de l’intégration à partir de la formation de cellule oeuf et la phase
dite de la désintégration, qui arrive lors de la décomposition du corps. La biologie ne
semble en aucun cas expliquer cette composante immatérielle de la vie. Il est vrai de
s’apercevoir de l’importance qu’à octroyer la science à l’étude de l’organisme au quelle
coïncide à l’amélioration du bien-être. La santé en ce sens est un aspect de la partie
5
matérielle et non spirituelle. La relation corps et âme est une relation d’interposition
lors de l’épreuve du souffle vital.
Encore, plus étonnant, le corps représente un obstacle pour la faculté de l’âme à
pouvoir aller au-delà de cette composante matérielle au quelle il se trouve dissimuler.
Or la mort pour l’âme est un moment de divulgation de lui-même. Cette épreuve lui
semble ardue et non souhaitée du fait de la déficience de l’expérience de l’existence
sans corps.
Nonobstant, c’est à travers duquel l’âme récent aussi une douleur, un moyen
pour lui de subir une souffrance. Plus une cause organique semble source d’un mal
être et plus la peine demeure consistée. Mais notant bien que le rendement est
croissant de façon conjointe. Il s’agit d’un canal de punition, un point faible de l’âme.
En réalité, la faiblesse de l’Homme n’est donc pas dû à la composante immatérielle
mais à celle matérielle qui émane d’un rattachement entre deux unités de la vie qui ne
sont les gamètes.
Le lien de génération, plus précisément : liens parentaux, de fraternité ou
familiale ne renferme pas l’aspect de l’âme. Dans le monde l’au-delà, cette filiation
résistante dans le rapport entre humain se verra insignifiant. Car c’est dans le monde
de l’organisme que ce lien reste inébranlable.
Mais le rapport conjugal entre homme et femme est aussi organique mais
éventuellement pas spirituelle. Peut-on dire alors qu’il n’y’a pas de genre pour les
âmes. A vrai dire l’imitation de comportements de femmes par les hommes et vice
versa nous laisse envisager cette opinion. Mes propos ne veulent pas notifier que
l’âme est sans sexe, en d’autres termes identiques pour l’homme et la femme et ne se
reproduit pas, mais plutôt laissent en suspens tout question perplexe. Puisque cette
remise en cause ne sont pas si importantes dans l’évolution de la vie quotidienne. La
considération idéale serait d’entrevoir que le monde corporel en un séjour corporel et
qu’une aventure spirituelle nous attend tous dans un temps de non retournement.
Une de chose encore plus remarquable est que l’âme, ce souffle vital ne vieillit
pas, contrairement à l’organisme, qui représente aussi un objet dont le sujet n’est pas
l’Homme mais l’âme. Cela dit j’ai le même âge que ADAM, le père de l’humanité, ou
ma grand-mère et moi sommes de mêmes âges sur le point de vue de l’âme et non du
corps. Par ailleurs, l’après vie est marquée par la disparité des liens familiaux qui
6
unissent plusieurs individus facilement structurables en une arbre généalogique. Se
pourrait-elle être alors la cause première de la vie après la mort. C’est qui est sûre est
que les descendances sont plutôt fondées par un lien d’organisme et non d’une
procréation par souffle vital.
Il est regrettable de voir aussi la biologie, totalement absente sur le défrichage
d’une composante non dérisoire de la vie. On relève aussi que l’âme n’est pas
admiratrice de la vérité. Rien que le fait d’être incorporé dans un corps lui procure la
volonté d’être abstraite et par ce fait de s’éloigner de la vérité. La nature et l’organisme
humain sont interreliés par la composante de la pulsion, qui pousse l’être vivant à
assurer une progéniture permettant de surpeuplée sur Terre. De même la nature et
l‘être vivant sont liés aussi par le câble de la consommation.
En général, la dépendance est complexe que ce que nous l’imaginons, en ce
sens, la vie dépend de l’âme et l’organisme aussi en dépend. Pareillement, la nature,
quant à elle, découle de l’organisme, la raison pour laquelle on est censé protéger les
espèces menacées pour le maintien de la biodiversité.
Autre aspect plus stupéfiante est celui du châtiment divin. La punition de l’âme
se fait indirectement par le biais de l’organisme auquel il se trouve. Mais nous
connaissons aussi, a part la situation initiale de l’âme, le fait d’être insurger dans deux
tombeaux est impressionnant. Or, le corps en est par excellence, sa première tombe.
Au cours, de la grossesse, il se trouve encore que nous eussions été dans un second
organisme : l’initialisation de la vie sur Terre. Nonobstant, le départ est de telle aussi.
Puisque, à la place d’un autre corps, cette fois ci, c’est au sein de la Terre. Le concept
de double tombeau est lié à un début et fin d’une vie.
Mais toujours soit-il que l’âme soit indépendante de l’évolution du temps. La
relativité restreint de Einstein est vrai sur une remise en cause, l’existence de temps.
A vrai dire, le temps existe pour certaines entités. Elle n’est pas absolue, mais relative.
Nous allons développer un autre article sur la perception du temps. Pensez-vous que
l’âme aurait besoin de manger et boire pour survivre ? La réponse la plus éminente et
efficiente est tout simplement non.
7
En effet, la consommation est vouée pour le fonctionnement du corps auquel
l’âme joue un rôle clé. C’est le corps qui nécessite de consommation de bienêtre et
non l’âme. Même, pour le sommeil, le corps demande d’un repos, se peut-il que l’âme
exige une telle requête ? Il est fort palpable que l’âme soit indépendante de plusieurs
comportements corporels humain.
Mais il est à souligner que visiblement, l’âme partage des points communs avec
le divin. L’âme n’est pas un divin, parce qu’elle ne permet pas de donner la vie ou la
mort, mais avec l’appui d’un ange, autrement-dit selon la volonté divine.
Abdi-Basid ADAN

Les préceptes de la statistique


Introduction
Le concept de la Statistique, de nos jours, demeure mitigé depuis fort longtemps. Elle représente une discipline (science) tout comme autre, mais à la différence pour les uns, il s’agit d’une branche de la mathématique pour d’autres un domaine à part entière. Cette fameuse expression a cependant, vu le jour en XVIème siècles (1771 en français, 1798 statistics en anglais). Etymologiquement, elle dérive de l’expression en latin dite « status » (état). Nonobstant, sa mise en oeuvre débute des 3000 avant J.-C. par la collecte d’observations (recensement) sur des personnes ou matériels afin de permettre au décideur public de pouvoir connaitre davantage leur puissance ou leur évolution dans un domaine précis (exemple : Mésopotamie).
Par ailleurs, Wilcox (1935) a relevé plus d’une centaine des définitions sur la notion de la Statistique. Il est clair de voir à quel point ce concept divise les opinions de la communauté scientifique, qui demeure aussi perplexe que l’on imagine. Dans cette circonstance, Kendall à mis en évidence qu’il s’agissait un des propos sur lesquels les statisticiens semblent plus que jamais opposer sur la conception de la Statistique.
Outre, la définition la plus acceptée est paru en 1982, annonçant que la Statistique est un ensemble des méthodes ayant pour vocation de collecter, traiter, interpréter et de diffuser des données statistiques. En général, elle est une science qui est vouée tout simplement aux données autrement-dit une science de données (data science en anglais).
Les statistiques (en singulier une statistique) représentent les procédées par les quels on étudie un ensemble d’observations (personnes, matériels, phénomène naturelle, comportement humain, espèces chimiques, végétaux, les animaux…etc. Il s’agit des approches méthodiques ou grandeurs mathématiques (outils statistiques). D’autant plus, John Tukey considère la ramification de la statistique en deux approches qui s’entre mêlent entre elles : la statistiques exploratoire et la statistique confirmatoire.
Page 2
Du point de vue générale, La Statistique se subdivise en deux sections à savoir la statistique descriptive et celle inférentielle : La première permettant d’abord la mise en place des données (recensement ou échantillonnage) puis l’étude unidimensionnelle et multidimensionnelle des caractères étudiés et collectés sur les observations (prévision, Data Manning, régression, corrélation…).
La seconde s’intéresse plutôt à généraliser avec une marge d’erreur (extrapolation) l’information déduite à partir d’un échantillon représentatif sur l’ensemble de la population. Pour y parvenir à déceler une information pertinente dans un milieu très complexe, on sollicite à la fois des approches mathématique et informatique. Souvent on laisse entendre diverses tendances de domaine d’application de la Statistique. Selon moi, elle est primordialement au service des décideurs publics, de la recherche et de l’enseignement.
I. Statistique descriptive ou exploratoire
L’un de rôle essentiel de la statistique est la faculté en elle de pouvoir extraire une information capitale dans une base de données complexe et structurée, ce qui n’est pas évident avec une simple lecture. Les outils par les quels on parvient à le faire sont divers, certains sont dites paramétriques et d’autres non paramétriques.
Il est indispensable de distinguer deux procédés de la statistique descriptive qui consiste à faciliter une information sur un ensemble d’observations. Ils peuvent s’agir des grandeurs synthétiques ou des figures récapitulatifs sur les caractères étudiés. Sollicitons l’approche unidimensionnelle des variables. Je la définis comme étant la spéculation dans un espace à deux dimensions de la position de chaque observation par rapport à un super-point (centre de gravité) et d’autre part un regroupement selon un critère spécifique.
Néanmoins, la liaison entre deux variables suscite encore plus attention, du fait de sa considération au-delà de la limité de la première analyse. La dépendance, la forte liaison ou la causalité entre deux variables porte un jugement sur le lien entre deux caractères différents observée ou pas sur une même population.
Page 3
Plus encore, cette introspection peut être reporter vers des dimensions assez complexe dépassant largement la visibilité perçue l’oeil. Bongré tout, Cela est rendu possible par la technique d’optimisation linéaire pour consentir une prouesse qui demande assez de réduction sans déformation de la réalité. La statistique descriptive est fondée en générale sur trois grandes approches : approche par rapport à un super-point, approche de regroupement selon un critère et enfin celle qui consiste d’expliciter la liaison entre deux ou plusieurs phénomènes donnés.
II. Statistique mathématique ou inférentielle
L’inférence statistique est d’abord non descriptive mais plutôt inductive. Parce qu’elle consent d’estimer un caractère inconnu d’un ensemble d’observations à partir d’un prélèvement d’un échantillon aux propriétés bien défini. Il s’agit, par cette définition un moyen de contourner la difficulté d’accès à une information très couteuse par une estimation (inférence) avec l’inclusion d’une marge d’erreur.
Le but est de pouvoir conclure sur l’ensemble avec des estimateurs de façon judicieuse et efficace. Toutefois, l’histoire de l’inférence débute à la fin de XIXème siècle avec les travaux des mathématiciens éminents sur la vraisemblance, le test, les intervalles de confiances, la qualité des estimateurs. Ces travaux connaissent une montée époustouflante avec l’arrivées des machines à calculer plus puissantes.
En général, on peut regrouper les techniques de l’inférence statistique, quant à elle, selon deux approches : l’une repose sur l’estimation des paramètres d’une population statistique et l’autre sur l’affirmation d’une hypothèse. C’est pourquoi, elle est, selon moi, la seule discipline capable d’étudier à la fois la réalité et l’irréalité sur les principes de la scientificité.
De ce fait, elle est compétitive avec les autres disciplines sans distinctions notamment la statistique et la physique ont permis la découverte majeure du boson de Higgs ; la statistique et la mathématique : l’entropie de Shannon ; la statistique et la biologie : la classification ascendante hiérarchique…etc.
Page 4
Conclusion :
En terme général, la Statistique est la science qui étudie les données, qui resurgit une information clé dans un ensemble de données (tout comme un trésor dans un coffre) et qui permet de mieux expliciter tous faits ou phénomènes absurdes. D’autre part, elle est un instrument qui part au-delà de la limite des autres sciences (la puissance de la statistique ou super science) avec des techniques d’estimations aléatoires.
Abdi-Basid ADAN

Les Mystères Non résolus de l’Univers

Page
1
Les Mystères Non résolus de l’Univers
L’Homme, supposé être le seul, à posséder la conscience dans l’ensemble de l’univers. Malgré cela, soit loin de tout connaitre, tout maitriser à la surface du globe. Serait-il donc convenable qu’on aborde ici, les mystères non résolus de l’univers ? Loin de la déception, car avec le temps et les prochaines technologies des futures générations, nous saurions beaucoup à apprendre rien que sur ce qu’on connaît déjà. Plusieurs questions sont soulevées et demeurent toujours sans réponse de nos jours. Certaines persistent dans le floue le plus total. Dans cet article, nous allons expliciter quelques-unes de ces notions notamment sur l’existence des extraterrestres et les théories de trou noir.
Un extraterrestre, au sens d’une première définition, est une espèce qui aurait apparu en dehors de la planète Terre et qui sans doute serait logée dans notre univers. Or les astronautes vivaient déjà sur Terre, leur séjour en orbite ne correspond pas à la première conception de la notion extraterrestre. En réalité, cette thèse coïncide à l’idée qu’il s’agisse de l’existence d’une vie autre que celle qui nous est commune.
A vrai dire, il est fort plausible que l’immense univers soit totalement vide et que la Terre soit au centre de l’univers, le noyau névralgique de la théorie de big bang. En vérité, si la NASA (National Aeronautics and Space Administration) enquête sans cesse les signaux d’intelligences extraterrestres. Il convient alors de rappeler que le véritable extraterrestre est sous notre peau en occurrence l’âme. Ce souffle vital intervient dans la période de la grossesse par miracle sans explication scientifique ou cause naturelle.
En ce sens, la deuxième définition découle à partir de ce concept. Un être vivant qui saurait en vie au-delà de l’univers l’est également. Cela veut dire que les anges sont aussi des extraterrestres. Ils nous viennent d’une autre vie et non d’une autre planète.
D’un autre point de vue, les soucoupes volantes ont fait preuve qu’ils sont démunis d’aucun engin propulseur. Nous ne sommes pas, dans ce cas, le seul qui pourrait en avoir l’habilité de concevoir ou la faculté de pensée, il y’a parmi nous
Page
2
d’autres comme les démons à considérer dans cette catégorie. Ils sont suffisamment
habiles pour construire des dispositifs de ces types. Une ancienne civilisation indienne
nous rapporte l’existence des machines volantes d’une technologie avancée et
inconnue dite les Vimanas. Il se pourrait surement qu’ils s’agissent d’un de leurs mises
en oeuvre. Puisque certaines d’entre nous collaborent avec eux (les démons). En
sommes, l’être humain étant en partie terrien et en partie extraterrestre.
Plus loin encore, il est plus extraterrestre que terrien. Autrement-dit l’univers est
le plus grand jardin qui soit offerte à l’espèce humaine ou encore l’on peut dire qu’il n’y
a point d’extraterrestre que l’Homme dans l’univers. Dans un autre article sur le
principe de l’âme, vous pouvez découvrir plus de détails sur les principes de l’âme.
L’autre sujet plus mystique que la première est le trou noir (dite aussi boule
noire). Il est fort concevable de voir une théorie prévoir beaucoup de phénomènes sur
l’univers : la relativité générale de Einstein, même si Marcel Grossmann et de David
Hilbert ont prêté leurs soutiens en mathématique. Dernière chose qui soit encore plus
lumineuse sur la connaissance de trou noir est le rayonnement de Hawking, ce
supposé échappement ou vaporisation lors de l’engloutissement de la matière à ses
alentours.
Selon moi, l’univers ne serait constitué que deux composantes parmi lesquelles
une couche compensatrice de l’attraction (espace-temps) et la gravitation elle-même.
Chaque objet céleste, homogène ou non, déforme l’espace-temps selon sa masse et
lui est infecté automatiquement une force d’attraction qui se propage sur toute sa
circonférence. La gravitation serait-elle le moteur de l’expansion de l’univers ? Est-il
possible de dire qu’elle croit avec le temps en intensité ? Cela ne laisse-t-elle pas
penser à l’élargissement de l’univers et de l’espace-temps ?
C’est qu’on souhaite éclaircir dans cette section, est en rapport avec la notion
de trou noir. Pourvue d’une ouverture uniforme et engloutissant tout matière à son
passage. Il s’agit d’un détachement de l’espace-temps tout comme le trou dans l’ozone
du aux émissions de gaz à effet de serre. La gravitation, en sorte facilement de ce trou,
en effet la notion de l’espace-temps n’est plus à considérer dans le centre du trou noir.
Page
3
Il faudrait que l’on sache une chose qui pourrait peut-être pour la plupart des
gens renonceront en laps de temps. Le temps n’existe que pour certaines matières.
En ce sens, il ne s’applique pas aux êtres qui sont dépourvue de matières que nous
constituons. C’est en occurrence à l’âme, aux démons, aux anges. Ces créatures, le
temps ne leurs concernent pas. Et donc la gravitation elle aussi. Il est loin de dire que
c’est sidérant de voir de soucoupe volante se déplaçant une vitesse hors norme.
Autrement-dit l’espace-temps est une force opposée à la gravitation mais avec une
intensité légèrement faible. Ce déséquilibre explique parfaitement bien l’expansion de
l’univers au cours du temps.
Le temps, la gravitation, l’espace-temps s’entremêlent et ne sont limités que sur
la majorité des matières. Certaines que nous l’ignorions encore sont loin d’être
infectés. L’expansion de l’univers était-il responsable en partie des mouvements des
objets célestes, tout comme les planètes et les astéroïdes qui gravitent autour du
soleil ? En effet, les houles au bord de la mer, eux aussi témoignent de la mobilité de
la Terre. Le secret du trou noir est certainement celle qui dévoilerait avec plus de
précision possible la naissance de l’univers. Dans ce cas, quel message voudrait-elle
nous laisser une supernova ? Une explosion dont l’épicentre se forme d’un
effondrement en un point de l’univers. On ne saurait guère renoncer avec cette thèse,
l’idée de big bang.
En réalité, le diamètre du trou noir ne s’agrandit pas avec le temps. C’est la
résistance de l’espace-temps. Sinon, elle serait catastrophique pour l’humanité. Sa
naissance, en revanche l’est vitale. L’engloutissement du trou noir ne permet qu’une
nouvelle construction de l’espace-temps et donc pour l’univers de s’agrandir et d’être
en mouvement continuel. En ce sens, nous avons à faire un cycle de recréation de
l’univers par l’espace-temps, trou noir et gravitation.
Le trou visiblement noir, est fort concret qu’il soit conçu de la matière noir
complexe très génératrice de force gravitationnelle tout comme l’énergie emmagasiné
dans l’uranium 235. Dans cette condition, les matières qui ont admis l’univers à se
former et celles qui forment par les astres sont totalement différentes. En d’autres
termes, les matières noires sont aussi à l’origine des autres matières qui interagissent
avec la gravitation.
Abdi-Basid ADAN

Les Lois des Probabilités en quelques mots


Comprendre une loi,
C'est de saisir en elle,
Comme étant une règle de droit,
Ecrite et à portée impersonnelle.
Avoir compris la probabilité,
C’est d'avoir saisie à l'opposé,
De ce que désigne la certitude,
Et subordonné par l'exactitude.
Appréhender une loi de probabilité,
N'est ce point d’en étudier,
Les principes proprement dites,
Sur les phénomènes aléatoirement dites.
Imiter cette statistique,
En collaboration avec la mathématique,
Est avant tout,
Contempler un comportement aléatoire,
D'une variable aléatoire,
En dimensions double.
Formalisé mathématiquement,
Par une fonction dite : La densité,
En associement,
Avec un réel et des inconnues à paramétrer.
Laplace Gauss, sa loi de probabilité,
Reste quand même, la meilleure,
Car sans elle, pas des lois des probabilités dérivés
Bon gré tous, c’est elle, la meilleure.
Abdi-Basid ADAN

Les Découvertes en Mathématique de Abdi-Basid ADAN (2009)


1. Théorème de résolution d’une équation d’ordre 2 :
Dans un polynôme de degré deux, pour résoudre il suffit de sélectionner parmi au moins 3 multiples du coefficient associé au terme au carré et d’en déduire la valeur de l’expression homogène. Considérant cette équation ci-après :
12 x² +x = 51
Or 12x4=48 onc x²=4 et x=3 par déduction.
L’équilibre des signes permet la résolution immédiate des équations homogènes.
2. Equation de puissance :
Soient N et n deux entiers naturels, tel que N≥𝑛 :
Nn =(nxN) + (N-n) x N
3. La convergence en nombre 99, 999 :
Interchangeant la Aième et Zième chiffres d’un nombre au fur et à mesure par soustraction, on obtient un nombre de 9 répétitif 99, 999
123-321 …… 99
4. Nombre commutatif
On réalise des opérations sur des termes intercomuté en chiffre, le résultat issu révèle de la même :
69-25=44 ET 96-52=44
75-32 = 43 ET 57-23 = 34
5. Nombre PREMIER ET PAIR (conjoncture de ADAN)
« Pour tous nombre premier leur différence donne un nombre pair sauf pour 2 et 3 ».

Le poids, l’aimant et le mouvement

Le poids, l’aimant et le mouvement
La force de l’attraction gravitationnelle de la Terre est dû à sa propre déformation de l’espace-temps. Une force d’attraction de toute matière contrairement à l’aimant qui n’attire que les objets constituants essentiellement de fer.
L’aimantation est mesurée par l’unité de tesla, il s’agit d’électrocuter les électrons de la matière qui finissent par être chargé. Il est de connaissance sur l’existence de deux bornes d’aimantations : le sud et le nord.
En revanche, l’attraction gravitationnelle semble attirer tout objet sauf le rayonnement électromagnétique dense. Une boucle pour protéger la vie sur Terre des vents de chaleurs dévastatrices.
En s’intéressant de plus prêt sur le fonctionnement de la Terre. On pourrait se demander d’où pourrait provenir exactement l’énergie au centre de la terre ainsi que la gravitation. Si l’on croit davantage à Lavoisier, alors peut-être qu’il s’agirait d’une résultante des transformations de la matière.
Bien que le géothermique nous enseigne de la désintégration de l’uranium, potassium et le thorium au centre de la Terre à plus de 4000 degrés Celsius. Si la déformation de l’espace donne les forces gravitationnelles en même temps le poids. D’où vient-elle les mouvements qu’elle effectue alors. D’où vient -elle-l’énergie de ces mouvements ? C’est qui est sûre les éléments du système solaire sont en mouvement de rotations, les astéroïdes et les planètes. Il y’aurais donc une énergie non découverte qui expliquerait mieux et aussi celle de la formation d’une galaxie. Le secret de tous ces phénomènes est un équilibre parfait ou non parfait tout comme E=MC2
Abdi-Basid ADAN

Le concept de Darwin

Page 1
Le concept de Darwin, une théorie partielle et partiale Le paléontologie et naturaliste anglais Charles Darwin publie l’ouvrage intitulé « Dès L’origines des espèces » en 1859. C’est en effet, une l’hypothèse émise par Jean-Baptiste de Lamarck, 50 ans plutôt. Presque l’ensemble de ses travaux de recherche s’articule autour de trois points essentiels à savoir l’unité, la diversité des espèces et la sélection naturelle. En vérité, l’idée selon laquelle Darwin avance son argument est tout simplement illusoire, car en effet, dans sa formulation, il a suggéré que l’on maintient constamment les fouilles, les recherches de restes des espaces pour appuyés ses postulats et confirmé par la suite sa théorie. A vrai dire, il est décevant de voir naitre un courant Darwinisme persistant avec détermination sans fondement scientifique. Des nouvelles générations les sont victimes de ses influences mensongères sur les évènements des espèces. En dépit de quoi, je démontrerais dans cet article le non-fondement des théories de Darwin sur la lignée humaine de façon générale. De point de vue sur l’unicité des êtres humains, il faut constater par nature, l’existence véritable d’une similitude relative entre plusieurs êtres vivants plus sur le plan anatomique que sur le plan morphologique ; chromosomique ; moléculaire...etc. Aussi bien pour les espèces de même milieu que ceux des milieux distincts. Cela ne doit, en aucun cas nous laisser penser à l’idée d’un ancêtre commun. L’évolution d’un être « origine » ou au pluriel comme présuppose les Darwinismes ne pourront point expliquer le peuplement des milliards des milliards des espèces vivantes sur Terre. Cela constitue une mauvaise interprétation de la nature et de son évolution. En principe, le point commun entre les espèces est irréfutable et doit être vue sous l’angle d’appartenance à un même être suprême et non à un même ancêtre commun. Or c’est sidérant d’expliquer une multiplicité infinie des êtres, sachant que d’autres sont non découvert jusqu’au 2018 comme étant une dérive d’un ou plusieurs ancêtres communs.
Page 2
Sur le principe de la science, la phylogénie n’est pas en adéquation avec l’évolution des espèces dans une dimension beaucoup plus globale, elle est partielle et partiale dans son concept. Le temps ne serait pas le maitre d’oeuvre de la différenciation « magique » de ces espèces. Dans la fouille de restes squelettiques, les découvertes ne cessent de remettre en cause la considération même relative des principes de Darwin. En 2004, une équipe de prospection Aramco Exploration Team aurait découvert, d’ailleurs en Arabie saoudite un squelette humain de proportions hors norme. La trouvaille de restes des hommes géants en serait la preuve incontestable de l’imagination sans preuve de la pensée darwinisme. En ce qui concerne, la diversité des êtres vivants, il est tout à fait clair que la nature tient son équilibre par ce principe, il faut et sans conditions une diversité pour permettre la pérennité de la vie sur Terre. En ce sens, toutes les espèces s’entremêlent entre elles. Cette diversité n’est peut se voir dénoncer, elle est accueillie sans exception, Encore une fois, il faut rappeler que les végétaux sont bien des êtres vivants et que la terre en est ainsi. Je ne saurais comprendre comment Darwin n’a pu penser à ces êtres. Descartes dans son explication apporte sur l’origine des erreurs que le fait de se précipiter pousse davantage les gens à commettre des erreurs. L’attitude de Darwin en est le parfait exemple. Cette diversité, en effet, tire son origine de l’ingéniosité d’un être suprême sans équivoque et sans ambiguïté. En dernier point, la sélection naturelle, bien que définis comme étant l’équilibre de l’équilibre de l’environnement sur les espèces au cours du temps. Il est assez complexe d’en pouvoir comprendre dans une dimension complète. La reproduction de certaines espèces est en faveur des autres. La disparité des autres est avantageuse pour des futures nouvelles espèces, qui peuvent dériver des souches minoritaires. Le complexe environnement, prédateur et proie régie ce principe de complexité par excellence.
Page 3
En conclusion, penser que l’unicité laisse la place à la diversité des espèces est illusoire. Bien que la sélection naturelle soit le moteur de l’évolution des espèces au cours du temps. Ce n’est pas cette dernière qui détermine l’entre période de l’unicité et de la diversité des espèces. Le mystère de l’unicité des êtres vivants reste encore à percer, selon moi c’est la manifestation d’un être suprême, qui en définit. La diversité des êtres en est une essence incontournable pour la stabilité et la continuité de la vie sur Terre. Le rôle de la sélection naturelle doit être perçu comme l’interaction entre environnement et espèces. De cette condition, il n’y pas d’un ancêtre commun dans la ligné humaine avec les singes (surtout le bonobo). La similitude seule ne peut justifier cela, c’est la dérive utopique des courants darwinismes. Abdi-Basid ADAN

L’ascientifique science


La plus belle expression du jour se voudrait entendre dire et s’exposer sous une dénomination de confusion absolue au premier plan, toutefois, vers une purification de vérité à primer tout au long de ce travail de réflexion. Il s’entreprend sans équivoque avec la promulgation d’un point névralgique de la science, par essence proprement dite l’ascientifique science. L’idée sous-jacente que l’on voudrait sous-entendre par excellence s’avère beaucoup plus complexe que la perplexité qu’elle soulève en nous avec la simple lecture.
Avec bonne vaillance et clarté de préférence, la réflexion contenue dans cet article dérive d’une assertion qui ne nous laissera nullement, sans aucune indifférence. Par simplification de chose et dans un élan d’introspection, portant une attention toute singulière aux rapports pouvant bien exister entre trois entités clés qui, nous sont formellement, quotidiennes. En occurrence, ils s’agissent de « l’être humain », « la vie » et « la réalité ».
La recherche optée va dans le sens d’abord de faire diverger les perspectives en vue de les convergées toutes vers une thèse commune, qui n’a explicitement trait qu’avec l’entête de ce présent rapport. En tout état de cause, essentiel soit-il ? que nos convictions suprêmes, à un certain moment, à une certaine étape de la vie, soient amener à se détacher du haut de la grandeur de la considération comme fait véridique et sans contradiction absolue.
Irrationnel de croire que l’être humain existe réellement dans la nature. En effet, la reconnaissance de l’espèce humaine est une question de forme et non de fond. Si l’on arrive à bien distinguer un éléphant d’une fourmi, c’est parce que d’abord le principe de la morphologie tient capitalement à cette notion de classification. Très souvent, l’on prive à toute objet se trouvant dans une pièce du caractère spécifique pour les êtres : celle de l’autodétermination. En d’autres termes, on est tous d’accord qu’un passage d’un coup de vent et le contact visuel avec un autrui ne sont pas interprétés de la même manière par l’esprit. Il y’a toujours cet accord de priorité à l’entité pensante d’une valeur qui lui-même restitue par sa faculté de s’autodéterminée, une sorte de prestige par nature. Or, ce n’est par une âme que l’on peut se permettre. Un corps sans vie n’est pas si diffèrent d’un objet quelconque. Pour signifier ici, que l’être humain est une espèce invisible (âme) qui cherche à avoir une identité visible avec ce corps qui lui sert de quoi prouver son existence sur Terre. De ce fait, l’espèce humaine n’existe que par seulement et indirectement à travers une visibilité corporelle.
2
La question de la vie est de même allégation. Je ne m’attache guère, ici, à la subjectivité
des principes, mais privilégie davantage et sans condition l’universalité de ces derniers. Fort
logique que nous soyons continuellement prises entre les jours et les nuits tout au long des
séjours sur Terre. Vous ne vous êtes jamais posé la question de savoir finalement si tel est le
cas. A vrai dire, l’obscurité de l’univers nous fait plonger dans la nuit et la lumière du soleil
dans le jour. Il n’y pas de jour et de nuit proprement dite, mais c’est plutôt l’embuscade ou « la
danse » de la Terre qui fait naitre cette sensation et qui en est ainsi. Pour dire simplement que
la vie est cette illusion qui laisse penser que tout est normale, logique et réelle. En ce sens, la
vie elle-même ne tiens pas à la logique sous plusieurs angles.
Dans cette condition, la réalité se moque-t-elle sans cesse de nos consciences ? Non pas
du tout, elle est connue pour être stable, constante. Alors d’où vient-elle la réalité perturbatrice ?
Des là, démarre la cogitation sur l’ascientifique science. Qu’est-ce que la science avant tout ?
C’est la faculté d’interagir avec la nature, de comprendre mieux, de la saisir, par-dessus de tout,
de vouloir la domestiquer sous plusieurs formes au gré et à la satisfaction de l’Homme. La quête
du savoir commença des le jour où l’homme a su la contrainte pesante de la vie sur Terre. En
ces termes précis, la science est celle qui nous fait découvrir la réalité. Mais si cette dernière est
utopique, dans ce cas, ne s’est-elle pas tromper d’avance sur cette base ?
Assez simple, comment expliquer avec la science certaines éventualités plausibles ?
Comme par exemple un passage terrestre dans l’océan atlantique comme c’était fut dans la mer
rouge lors de l’exode du peuple hébreu ; les marches des montagnes ; la compatibilité des
natures incompatibles ; l’accouchement d’une brebis par une grotte...etc. On ne saurait dire
qu’il relève de la manifestation divine. Tout à fait, malgré la réalité que l’on ne cesse
d’expliquer, il faut que l’on note que la réalité n’est pas aussi réelle qu’elle ne l’est. Beaucoup
des choses nous sont dissimulées. A tel point que tout est fait pour nous évaluer et qu’une
histoire bien plus différente existe au-delà de la réalité, l’être humain et de la vie.
Il convient de rappeler en dernier mot que la science, bien qu’une admiratrice de la
nature autant que telle. Elle peut toutefois, s‘avérer parfois relative parfois aussi contradictoire
à différents degrés. Comme nous venons de les démontrés, tous ce que nous connaissons de la
réalité sont loin d’être « un tout logique ». Encore une fois, certains phénomènes naturels déjà
découverts persistent toujours dans le flou le plus total, c’est le cas du rocher de Jérusalem en
suspension dans l'air, les mystérieux trous qui se forment à la surface de la terre de ces derniers
temps...etc.
3
Abdi-Basid ADAN

La perception de la notion de temps

La perception de la notion de temps
Une question prodigieuse à se poser : le temps existerait-il vraiment ? où la réalité en face de nous, nous cacherait-t-il une vérité aussi intime qu’elle ne l’essaye de la bien dissimulée au détriment d’une découverte révolutionnaire de tout le temps. Revenons-y au XVIIème, c’est à partir de 1666, un soir, sous un arbre avec un ciel dégagé, que Newton observe la chute d’une pomme, alors se demande pourquoi la lune ne tomberait-elle pas ainsi.
Delà, nait la physique classique. C’est remarquable et hallucinant de voir que la nature, le soir de 1666, a transmis son secret à Newton. Encore plus loin, en 1905, Einstein étend la physique classique à l’infiniment petit, au coeur même de la matière avec sa relativité restreinte (dans un référentiel non soumis à une accélération fictive comme le cas non galiléen) et à l’échelle cosmique avec sa relativité générale (existence de la courbure espace temp).
Ici, si l’on constate bien que l’on est toujours dans la tendance explicative de la nature en deux dimensions différentes. La question le plus perturbatrice pour Einstein étais la lumière et c’est à partir de cette interrogation que la porte de sa nouvelle physique s’ouvre, la physique quantique.
En vérité, il a été le seul à comprendre que le temps pouvait se ralentir d’un point un autre. Son explication sur l’effet photoélectrique ou l’absorption de photon (quanta de lumière) par le matériau, lors de l’interaction avec la lumière lui a valu le prix Nobel de physique en 1921. Une physique hors norme, qui n’est plus superficielle comme l’a été avec Newton mais qui part, cette fois-ci en profondeur de la nature pour expliquer les merveilleuses lois qui régissent.
De ce point de vue, il est clair et sans équivoque que la science de façon générale soit l’alternative pour l’Homme de mieux comprendre la nature qui conditionne tout élément de la vie. C’est sans aucun doute la clé pour mieux cerner la condition principale de la vie. En ce sens, Il n’y point de science sans nature.
De quoi le temps dépend -il alors ? Le paradoxe que je pense l’on peut émettre est de se dire à partir de la révolution de la terre et celle de la rotation, la décompte en 24 heures et les 365 jours de l’année est concrète mais de façon séparée. Si les 24
heures et les 365 jours ne sont pas des dérives du même mouvement, nous avons une discordance purement claire entre le court terme et le long terme. En ce sens, le référence ou la position et la mobilité joue un rôle important dans la détermination du temps. Elle est de ce fait bien relative et non absolue.
Pour découvrir le secret sur le principe de temps, il nous va falloir d’abord prêter d’intention particulière à la nature. Car cette dernière peut nous servir une troisième porte sur le mystère de la physique. Le temps, par définition, n’est rien d’autre que l’interaction entre la vie et la nature par l’intermédiaire de l’environnement. Il faut un environnement propice à la vie sous l’ordre de la nature.
Connaissant parfaitement de la non-continuité de la vie, or toutes les parties prenantes de la vie se recyclent et n’évoluent pas sur une trajectoire infinie. Elle ne fait que se rénover dans une nouvelle dimension exactement comme le dit la courbe en cloche de Laplace Gauss.
Certaines espèces vivent plus longtemps que d’autres. Le temps est non seulement reparti de façon non uniforme sur tout point du référencie, Mais existerait aussi des parties ou le temps est encore plus anormale. Pourquoi cette inégalité ou super inégalité du temps dans l’espace ? On pourrait envisager l’idée que la nature bien qu’elle soit fondée sur le principe de l’équilibre, adapter le temps pour maintenir ses fondements (stabilité diversité cycle, équilibre…etc.).
En évidence, le temps n’existe pas pour certaine entité. Il s’agit d’une composante première au quelle le temps ne lui s’applique pas. Cette idée est redevable du fait que l’élément en question ne soit pas lié à la nature, ni à la vie. C’est sans doute en occurrence au souffle vital autrement dit l’âme. Pour survivre, il n’a nullement besoin de boire, ni de manger.
En effet, c’est l’organisme qui en détermine le besoin mais pas en lui. Il est donc en dehors du principe de la vie. La nature ne lui s’applique pas. Et de ce point de vue, le temps aussi. Plusieurs physiciens se posent la question de savoir si le temps n’existait pas.
A vrai dire, le temps n’existe pas pour certaines entités, mais l’est pour d’autre de façon relative. Encore plus étonnant, dire que le grand père d’une famille et son petit-fils ont le même âge spirituellement. C’est qui diffère, c’est l’âge de leurs organismes.
En un mot, le temps est la mainmise de la nature sur la vie. Elle est relative selon le référentiel choisi et ne s’applique que sur tous les éléments qui contribuent la vie, c’est-à-dire le système solaire et ses diverses formes, les espèces à différentes espérances de vie, le cycle de l’environnement et le temps et l’espace lui-même sont tous concernés.
Abdi-Basid ADAN

La force de la vie


Souvent, en physique, on se content de vouloir dire avoir découvert l’ensemble des forces existants dans la nature jusqu’à nos jours. Mais comment se peut-il que tant des gens soient indiffèrent à la force de la vie. Une des forces mystérieusement dissimulée et invisible dans la nature.
J’appelle donc force de la vie, cette entité contraignante pour les espèces vivantes. Rien que la vie, visiblement, elle est un équilibre qui fait entremêler complexement tas des choses. Autrement-dit pour sa perfection, elle faudrait qu’elle exerce une force sur les êtres vivants. Le hasard est conçu de façon à servir la vie. Un « allié » de la vie. Sans lui, on saurait se demander comment allait s’en sortir la vie. Elle et la nature sont bien deux entités distinctes. La vie est une force dont sa disparition pourrait laisser le vide dans la nature.
Nous connaissons parfaitement qu’une vie est un enjeu majeur pour pleins raisons, contrairement à une nature, qui propose juste des éléments minoritaires de la vie. Cela voudrait bien dire de façon empirique qu’une vie extraterrestre n’est possible que Si La force de la vie existe. Mais qu’est-ce que c’est cette force de la vie ? Chose complexe à définir.
D’abord, un exemple basique, terre à terre, l’émotion à l’égard de cinq sens, qui sont incontournablement des canaux décisifs pour convertir la force de la vie en émotion. Beaucoup des choses de la vie, nous procure le bonheur, qui n’est possible dans la plupart de temps qu’avec l’argent. L’émotion, la plus éminente est celle d’une affection pour l’autrui qui prend la forme d’une volonté de mise en association. Cette dernière se transforme quant à elle, en une deuxième volonté : celle d’assurer la descendance. Ainsi pour l’Homme aussi bien pour les animaux, les insectes et les végétaux, la structure est identique.
En d’autres termes, la vie impose à travers un long processus sa pérennité dans la nature aux vivants qui la composent. Se dire de vouloir supposer l’existence d’une vie extraterrestre, c’est d’abord imaginer, un environnement propice à la vie et des milliards d’espèces différents qui s’ingèrent indirectement entre elles.
De ce fait, cela semble affirmer, qu’il ne faut uniquement pas une espèce d’extraterrestre mais de présumer des milliards d’extraterrestres dont la force de la vie en assure un rôle majeur. Il faudrait de ce faire l’alliance entre vie et hasard d’une part et d’autre part, hasard-vie et nature pour l’existence toute simple d’une vie dans la nature. Vivre sur la lune indépendamment de la
Terre n’est jamais possible, même à moyen terme, il faudrait déplacer toute une structure
colossalement inimaginable.
De ce point de vue aussi, la considération ou la recherche de vie extraterrestre est une
illusion. Nous pouvons confirmer à travers la complexité de la force de la vie que nous sommes
à forte probabilité les seuls vivants dans l’univers et il serait d’autant plus difficile pour
l’extraterrestre de se balader dans l’univers sans la force de la vie non terrestre.
Abdi-Basid ADAN

La fausse intuition de Einstein


L’une des faits stipulés par la relativité restreint de Einstein en 1905 est celle de la remise en cause de l’existence de l’aspect temporel dans l’univers. A vrai dire la composante temporelle dans la réalité que nous percevions nous émane d’un principe simple : c’est celui du mouvement.
La Terre telle que nous la connaissons effectue deux sortes de mouvement l’une, la rotation sur elle-même et l’autre la révolution autour du soleil. Le premier est le résultat du nombre d’heure dans la journée qui est de 23h 56min et 4s (arrondie à 24 heures). Avec une vitesse de 1760 km/h, la terre nous fait voyager à travers deux temps distincts. En ce sens, le deuxième est la réalité du nombre de jour dans l’année un peu près de 365 jours, un voyage autour du soleil en chaque année à une vitesse près de 107 280 km/h.
Imaginer que la Terre effectue uniquement la rotation. Les conséquences d’une telle éventualité seraient d’un séjour sur Terre dans un même jour et par implication la constante continuelle de l’espérance de vie. En remarque générale, il faut un mouvement pour évaluer un temps. Qu’en est-il dans l’Univers ?
Depuis la naissance de l’Univers avec la théorie de Big Bang, la science et la religion attestent l’expansion sans arrêt de l’Univers. Un Univers en mouvement. De ce fait la distance entre deux galaxies ne cesse de s’agrandir de temps en temps et continue de s’éloigner à une vitesse donnée et par conséquence la possibilité de mesurer le temps entre deux galaxies, c’est-à-dire dans l’Univers est certainement possible.
Nous connaissons aussi que le soleil tourne autour de son centre dans la voie Lactée avec une vitesse près de 700 000 km/h. Encore une fois, l’aspect temps existe aussi bien dans notre galaxie.
Si la relativité restreint rejette l’existent de temps dans l’Univers, Alors elle se verra contradictoire davantage, puisque le temps existe sans doute dans le système solaire, la voie Lactée, entre deux galaxies et partout dans l’Univers. En général, elle caractérise l’existence du dynamisme. Dire que le temps n’existe pas, c’est autant dire que la réalité est utopique.
Plus encore, il faudrait que l’on distincte précisément deux types de masses
différentes : l’une consiste à une masse statique et l’autre en mouvement (instable). Il
est claire qu’une masse statistique (stable) est dépourvue d’énergie, elle est donc
immobile. Néanmoins, la masse en mouvement ou instable (ex. soleil) est celle qui
pourrait bien satisfaire la relativité restreinte : E=MC2 (1), contrairement à la masse
statistique (stable). Dans l’équation (1), la masse en question n’est pas du tout
spécifiée, c’est donc une erreur d’amalgame de la notion de masse en rapport à la
mobilité.
Or, l’énergie avec laquelle une masse est en mouvement subit une
décroissance exponentielle lorsque son énergie n’est plus mise au service, c’est-àdire
à l’instant où l’énergie n’est plus fonctionnelle, l’accumulation en sa masse se
transforme en une inertie qui décroît au cours du temps. La sous équation que l’on
peut déduire s’annonce en effet, comme suit :
Im=e-E=e-mc²
D’où : E=-ln(Im)
Avec 𝐼𝑚 ∶ 𝑖𝑛𝑒𝑟𝑡𝑖𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑎𝑠𝑠𝑒 𝑒𝑛 𝑚𝑜𝑢𝑣𝑒𝑚𝑒𝑛𝑡 (𝑖𝑛𝑠𝑡𝑎𝑏𝑙𝑒), 𝐸: é𝑛𝑒𝑟𝑔𝑖𝑒.
Abdi-Basid ADAN

Industrialisation dans les pays en voie de development

Industrialisation dans les pays en voie de development

Solow dans sa modélisation éminente, le facteur pionnier de son modèle empirique de la croissance économique était en principe celui du progrès technique auquel le capital humain constitue la clé première du progrès techniques.

Dans la littérature, une pluralité des variables sont considérées pour représenter le capital humain. Notamment, dans ce sens, le taux de scolarisation Brut, taux d’alphabétisation, Taux de fréquentation…etc. sont couramment considérés.

De mon point de vue, le capital humain est tout simplement la solution première dont nécessiterait une croissance économique et soutenue en Afrique. Or la négligence de ce paramètre dans le processus de la réalisation de la politique économique d’un pays en voie développement s’avérait incompatible à l’égard des objectifs prédéfinis. Il faudrait davantage d’investissement dans une voie prometteuse du secteur de l’éducation : une priorité primordiale pour un pays en voie développement. Il ne suffit pas de constructions des unités scolaires dans les différents régions et départements, mais d’abord de définir un modèle de la préservation de la qualité d’enseignement à l’échelle nationale pour chaque pays en voie de dévelopment.

Pour ce faire, il conviendrait sans équivoque de définir un indice de connaissance élémentaire (ICE) qui prend en compte spécifiquement chaque discipline en mettant en oeuvre un rapport entre la part de la science que l’on maitrise sur la part de la même discipline que l’on ignore. Pour y arriver, il faudrait alors graduer sur une barre de 100 toute discipline et actualisé cet indice à court terme pour pouvoir évaluer son évolution pour chaque individu et dans chaque discipline donnée.
Le système de la reconnaissance par diplôme des niveaux ou de l’expertise acquis par un individu en Afrique n’est plus adéquat, il nous faut désormais la considération d’un nouvel indicateur beaucoup plus robuste à l’échelle continentale, qui contribuerait essentiellement à l’industrialisation des pays africains à court terme.

Il n’est pas étonnant de voir aussi l’impact de l’influence culturelle étrangère sur les nouvelles générations. En allusion à la culture américaine qui perfore les idées, les
intentions, les buts à long terme de chaque génération et de chaque individu. Il semble
que l’on soit imprudent aux effets défavorables sur le taux de réussite scolaire dans
les pays infectés. En ces termes, il nous faut également mesurer la variable culturelle
sur une barre de 100% et parvenir à quantifier l’intensité de cette influence dans une
société donnée.

Il est vraisemblable que l’on soit amené à identifier une relation monotone et
croissante entre le taux d’échec de scolarisation et la variable culturelle étrangère,
c’est-à-dire, plus une culture étrangère s’impose face à la culture locale et plus le taux
de réussite scolaire se verra en baisse et indirectement d’une pression haussière sur
le taux de chômage et par conséquent défavorable pour la croissance économique
elle-même des pays victimes culturellement. Attention, il est important de reconnaitre
les effets négatifs sur l’éducation, sur la croissance de la force culturelle étrangère
dans un pays destinataire.

Courbe culture étrangère et échec scolaire
Il serait possible d’observer ces phénomènes à partir des données concrètes et de
constater une corrélation assez importante entre le taux d’échec scolaire et la variable
culture étrangère. D’autre part une corrélation négative entre le taux de croissance et
la variable culturelle .

Abdi-Basid ADAN

Analyse des Données Qualitatives (ADQ)

Analyse des Données Qualitatives (ADQ)

 Du point de vue économétrique :

Sur le plan économétrique, l’analyse de la variable qualitative (catégorielle ou nominale) s’opère de deux façons : soit il consiste de la considérée et de l’appréhendée comme étant une variable endogène, soit bien évidement de conserver comme une variable exogène et de l’étudiée dans un modèle de l’économétrie qualitative. A cela s’ajoute la possibilité d’analyser le lien entre deux variables qualitatives par le biais de test de Chi-deux d’indépendance (surtout à ne pas confondre avec le test de Chi-deux d’adéquation).

Autre par ailleurs, les modèles de l’économétrie qualitative sont divers et certains peuvent s’avérer très complexes qu’ils ne le sont d’ailleurs. Citons quelques-unes à titre illustrative du plus simples aux plus complexes : le modèle Probit binominal, Logit binominal, Gombit, Tobit simple, Tobit généralisé de type I,II,III,IV,V, Tobit à double censures, Tobit à censure multiples (tronqué ou limité), Heckit...etc. La structure de données, bien que dynamique sur la composante temporelle, peut varier selon chaque observation et prend dans ce cas la forme de données en panel. Nous allons expliciter dans la section précédente quelques principes de ces modèles.

Pour en savoir sur la nature du modèle que l’on a à faire, on peut facilement cerner selon le domaine de définition de la fonction mais aussi des modalités pourvues par la variable qualitative endogène. Ce sont des variables, qui très souvent dérivent des enquêtes portant sur un caractère d’appréciation, d’avis, de satisfaction. …etc. D’autres peuvent être calculées et non observées autant que telles. Leurs études sont aussi indispensables au même pied d’égalité que ceux quantitatives pour réaliser des efforts significatifs dans un sens précis.

La simultanéité d’une variable endogène qualitative expliquée par une autre variable exogène qualitative est certainement possible. Pour en étudier dans un cas pareil, il va falloir tenir compte d’une des modalités de la variable tout en réservant les autres pour en servir de références dans la signification des résultats obtenus autrement dit du coefficient estimé. Quant à la variable endogène qualitative, elle est présentée en termes de probabilité. Pour en parvenir, il suffit une variable continue dite latente qui aura pour objet de faciliter le calcul en termes de probabilité des
modalités de la variable endogène. Une probabilité positive est en effet synonyme d’un nombre croissant de chance. Il est éminent de constater d’autre part la convergence de la solution après itérations dans les cas aussi bien concave que convexe.

Au-delà de la significativité par variable prédicteur, la significativité globale ou encore l’adéquation du modèle est une notion d’appréciation sur la conception du modèle. Ainsi, l’indicateur de coefficient de détermination de Mc Fadden et Hekman dite aussi pseudo R-square porte un jugement sur la qualité de l’ajustement du modèle. Autrement-dit le pouvoir explicative ou la part de la fluctuation expliquée par les variables retenues dans le modèle. D’autre part, le pourcentage restant est généralement moins de 50% et correspond aux variables pertinentes non prise en compte. Le test de Hosmer Lemeshow également va dans le même sens sur la qualité de l’ajustement.

Effectivement, c’est par les effets marginaux que l’on connait plus sur l’impact de chaque variable introduite dans le modèle. Les estimateurs obtenus donnent une idée sur la nature de l’influence de la variable exogène sur l’endogène. En principe, on reconnait qu’il existe une difficulté au niveau de l’interprétation des modalités de la variable explicative. Il convient alors de mieux se fixer une modalité comme référence et d’interpréter en comparant avec celles qui servent de références dans l’analyse.
La plupart des cas, le choix de la modélisation entre Logit, Gombit (ou valeur extrême) et Probit se fait avec le pouvoir prédictive du modèle. Le meilleur d’entre eux sera retenu pour la modélisation finale.


 Du point de vue statistique :

En statistique, il existe une variété des procédées d’analyses univariés et multivariées parmi lesquelles la famille des méthodes factorielles : l’analyse factorielle des correspondances, l’analyse des correspondances multiples, l’analyse factorielle multiples, l’analyse factorielle des données mixtes. Dans certains de ces procédés, elle pourrait concerner aussi bien les variables qualitatives et quantitatives, on évoque alors une analyse mixte des variables.

Par ailleurs, d’autres techniques étudient le lien entre variables nominales et mixtes. Il s’agit en occurrence à titre d’exemple le test de Chi-deux, le coefficient de Cramer Rao, le rapport de corrélation, l’analyse de la variance (ANOVA)…etc.

Analyser statistiquement les variables qualitatives, c’est d’effectuer la même opération vue en économétrie. Autrement-dit faire en sorte que chaque modalité soit une nouvelle variable. C’est pourquoi on parle dans certains études l’existence d’un tableau disjonctif complet ou tableau de Burt. Par ailleurs, la dénomination correspondance fait référence à la liaison entre les variables nominales. La recherche des axes exprimant plus de sens aux données est le dénominateur commun de tous les méthodes factorielles. C’est plutôt en Analyse des Correspondances Multiples que l’on constate une perte massive d’information et donc la nécessité de prendre certains résultats avec précaution.

Les principes de l’analyse factorielle des correspondances, comme le nom l’indique permet de mettre évidence les correspondances entre deux variables qualitatives. En d’autres termes, la liaison dont les modalités qui interviennent et surtout d’identifier la nature de la liaison qui peut être attractive,

répulsive ou indépendant. En ce sens, c’est une méthode exploratoire, descriptive de données, établie par Benzecri dans les années 70. L’idée est de traduire la proximité des modalités comme une liaison entre les variables et surtout de saisir comme un profil identique pour les individus auxquelles elles décrivent.

A la différence, l’analyse multiples des correspondances est une généralisation de l’analyse factorielle des correspondances, qui lui-même est un double Analyse en Composantes Principales sur d’une part le profil ligne et d’autre le profil colonne dans un tableau de contingence. Autre aspect de distinction est qu’en analyse factorielle simple, le tableau de brut n’est pas étudié directement, cela risquerait de s’interpréter comme des écarts entre les lignes et les colonnes. Il est aussi important, lors de l’interprétation, d’éviter les modalités à faible effectifs marginaux de peur qu’il influence les contributions des autres.

En analyse discriminant, il requiert la présence d’une variable qualitative avec plusieurs variables quantitatives. Le principe est de mettre en place une combinaison linéaire des variables quantitatives séparant au mieux la population étudiée. La fonction discriminante peut s’obtenir à l’aide de la régression linéaire multiple. Selon un seuil et les modalités de la variable qualitative, on détermine les points individus mal placé. L’idéale est qu’il nécessite davantage d’un minimum de nombre individu mal placé. Pour cela, il faudrait penser à inclure d’autre variable dans la régression et de répéter à plusieurs itérative. La particularité résidant dans l’analyse discriminant est qu’elle est à part sa fonction exploratoire, une méthode décisionnelle.


 Du point de vue de la classification hiérarchique :

Sur le point de vue de la classification hiérarchique ascendante ou descendance, la mise en place est rendue possible par des multitudes algorithmes de calculs de distance métrique, parmi lesquelles la méthode de Manhattan, distance pondérée, Ward…etc. L’idée étant de réduire le nombre de classe par itération en regroupant celle qui se ressemblent ou celle dont la dissimilarité est minimale (selon l’indice d’agrégation). En d’autres termes, on cherche à minimiser la variance intra classe. Ce partitionnement dérive de la matrice de distance dans un espace de R puissance nombre de variable. Les profils identiques montrent les individus ayant la même préférence à l’égard d’un choix donné ou le même profil pour une caractéristique des individus recherchée.
Abdi-Basid ADAN

Access Various Climate Data, Manipulate Different File Formats, and Downscale GCM (CMIP5 and CMP6) and RCM (CORDEX and CORDEX CORE) Models Using a Stochastic Approach, ALL with the R programming Language

  Abdi-Basid ADAN "The purpose of this document is to consolidate and improve the various R scripts used to perform the cited analy...