Geschichte der Statistik

FONT SIZE:
fontsize_dec
fontsize_inc
November 26, 2016 Lona Perl G 0 44

Die Statistik ist eine relativ junge Wissenschaft, deren Inhalt noch richtig sichtbar, weil es oft mit der Statistik zu verwechseln: Daten, Tabellen, Diagramme, Indizes, Durchschnittswerte. In der Tat, in allen Wissenschaften vorhanden ist und es ist ein wichtiges Instrument für die Entdeckung der Gesetze und Zusammenhänge zwischen Phänomenen. Speaking in allen Situationen, in denen Sie müssen Entscheidungen unter Unsicherheit zu machen, die Statistik sich als ein wichtiges Moment der wissenschaftlichen Forschung, Wirtschaftsplanung und politischem Handeln.

Die historische Entwicklung der Statistik verbirgt sich zwei Seelen, die sich finden, sowohl in Lehre und Forschung sowohl in der gemeinsamen Denken der Nicht-Spezialisten, und daher in der Sprache der Massenmedien.

Etymologie

Die Etymologie des Wortes "Statistik" wird von dem italienischen Wort "Provinz" abgeleitet und bezieht sich in fast allen europäischen Sprachen, die Feststellung, dass die erste Information über reale Phänomene gesammelt worden sind und von staatlichen Stellen, die auch waren organisiert die Hauptnutzer. Es gibt auch andere Versionen über die etymologische Herkunft des "Statistics", wie einer, der den Status bezieht, darauf hinweist, dass diese Wissenschaft untersucht die aktuelle Situation der Realität oder die latein Statera, der deutschen Stadt. Obwohl überzeug logisch-begrifflichen, sind diese Leitungen nicht historische Beweise Ziele im Vergleich der zunehmende Gebrauch von dem Wort "Statistik" wird als eine Sammlung von Informationen organisiert und von der "State" verwaltet verstanden. Der erste Auftritt des Wortes "Statistik" in diesem Sinne scheint die italienische Girolamo Ghilini, die zwischen 1666 und 1668 veröffentlichte er den Ristretto der bürgerlichen, politischen, statistische und militärische Wissenschaft.

Statistiken als Datensammlung

Der erste Kern der Statistik ist inhärent homo sapiens, die sich der Welt und seiner Gefährten und das wird, im Kampf zu überleben, entwickeln optimales Verhalten zu ernähren, sich zu verteidigen und zu reproduzieren. Diese Strategien alternativen Niederlagen und Erfolge, und durch Versuch und Irrtum, ermöglichen die Verbreitung von Überzeugungen, Bräuche und Traditionen und, am Ende, von Wissen, Wissenschaft und Kultur. Wenn diese Überzeugungen sind im Leben des Clans kodifiziert, der Stamm, ein Volk oder eine Nation, kommen die Regeln des Verhaltens und damit das Gesetz. Diese Notwendigkeit Wissen wächst mit der Entwicklung der Beziehungen zwischen den Völkern.

Mit der Geburt der großen europäischen Ländern, wird es in der statistischen Analyse der kollektive Phänomene im öffentlichen Interesse, die zunehmend westlichen Nationen geht an Institute "Kern" von Statistiken, zugeschrieben, der Abgeordneten für das Gesetz auf die Sammlung, Organisation und Verbreitung von Daten über die Bevölkerung, Wohnungswesen, auf wirtschaftlichen Ressourcen und über alle relevanten Aspekte der kollektiven Leben einer Nation, einer Gemeinschaft von Staaten oder den ganzen Planeten.

Heute, öffentliche Einrichtungen, die institutionell sammeln und zu verbreiten statistischen Informationen sind zahlreich und handeln nach einer Hierarchie von Fähigkeiten in der Einheit, die das lokale Hauptquartier Priorität Sammlung von elementaren Daten identifiziert, während die Überprüfung, Aggregation und Veröffentlichung in der Verantwortung der "Zentralstelle.

Die mathematische Formalisierung von Statistiken

Die zweite Seele der Statistik kommt aus einer anderen Feststellung, dass nur ein paar Jahrhunderte hat eine Formalisierung erreicht gefunden. Mit der Realität, dass Änderungen konfrontiert sind, gibt es Ergebnisse, die mehr Vertrauen als andere verdient, weil sie mehr regelmäßig wiederholt. Dies wird insbesondere in Bezug auf Klima und den Wechsel der Jahreszeiten zu sehen sondern deckt auch Nutzpflanzen, Krankheiten, der Human Veranstaltungen usw. In solchen Zusammenhängen, zeichnet der menschliche Geist regelmäßig ohne Gewissheiten, Überzeugungen nicht sehr sicher, Wiederholung der Ereignisse nicht immer gewährleistet, um ein einzigartiges Ergebnis. Auf der einen Seite diese erzeugt Angst und erfordert Vorkehrungen gegen Risiken, die andere drängt das Spiel und Wette.

Obwohl es in der Geschichte und Kultur seit den Anfängen der Zivilisation sehr präsent ist, wird die Wahrscheinlichkeit, ein wichtiges Konzept und auch nur aus dem achtzehnten Jahrhundert, um Galileo, Pascal und Fermat formalisiert obwohl zuvor und dank, können Sie den Blick Entstehung einer neuen Art und Weise, um Mathematik zu den Spielen anwenden, das ist die neue Disziplin, die Wahrscheinlichkeit bezeichnet wird. Aber wir sollten noch 200 Jahre warten, denn es wird deutlich, Verbindung zwischen den Beobachtungen und der unsicheren Fähigkeit zur Vorhersage, zu steuern und zu simulieren sie. Also, am Anfang des zwanzigsten Jahrhunderts, wird geboren und erhöht eine Einstellung in Richtung der Erforschung der Wirklichkeit, in der Schlußfolgerung ist seine zentrale Kern und in den Schemata der probabilistischen Tools sinnvoll und wichtig, konsistente Entscheidungen zu treffen.

Die Verbindung zwischen diesen beiden Seelen der Statistiken erfolgt sehr spät und nur dann, angesichts der zunehmend experimenteller Art von Wissen, gibt es das Problem der Gültigkeit der Annahmen.

Das statistische Verfahren wird in der Praxis die Methode der wissenschaftlichen Forschung und der Praxis in der Analyse der Laborergebnisse, bevor sie als Instrument der Selbstuntersuchung anerkannt.

Heute, teilweise als Folge der raschen Veränderungen in der Technologie und Informationstechnologie, hat es eine ständige Anstrengung, um die Statistiken zur Unterstützung der These Standardmäßig ist die Verwendung als Instrument der ideologischen Überzeugung.

Zeittafel

1400-1499

  • 1494: Luca Pacioli Formel in seinem Buch Summa de Arithmetica, Geometrie, proportioni et proportionalita die Frage, wie das Problem der Punkte bekannt sind, gelöst, ein Jahrhundert und eine Hälfte später, im Jahre 1654, Pascal und de Fermat. Fehler in der Lösung sind fast ein halbes Jahrhundert später von Girolamo Cardano identifiziert, in 1539.

1500-1599

  • 1539: Gerolamo Cardano zeigt das falsche Argument Pacioli in das Problem der Punkte
  • 1564: Gerolamo Cardano schreibt Liber de Ludo Aleae, ein praktischer Leitfaden für die Spieler, gefiel einige grundlegende theoretische Überlegungen. Dieses Buch wurde posthum im Jahre 1663 veröffentlicht.

1600-1699

  • 1613-1623: Galileo Galilei schrieb den Aufsatz über die Ergebnisse der Würfel
  • 1654: In einem Schriftwechsel zwischen Blaise Pascal und Pierre de Fermat sind die Eckpfeiler der modernen Wahrscheinlichkeitstheorie durch die Analyse der so genannten Problem der Punkte
  • 1657: Christiaan Huygens veröffentlicht De ratiociniis de Ludo Aleae, das erste Buch über Wahrscheinlichkeitstheorie aufgegriffen und von Jakob Bernoulli in Ars conjectandi kommentiert.
  • 1663 posthume Veröffentlichung des Liber de Ludo Aleae Girolamo Cardano

1700-1799

  • 1708: Pierre de Montmort schrieb Essai d'analyse sur le jeux de hasard.
  • 1709: Nikolaus Bernoulli veröffentlicht De usu artis conjectandi in jure, affrondando unter anderem die Frage der Lebenserwartung
  • 1713: veröffentlicht posthum Ars conjectandi Jakob Bernoulli, wo unter anderem wird die erste Grenzwertsatz, der das Gesetz der großen Zahlen ist formuliert.
  • 1760: Ein Schweizer Mathematiker Johann Heinrich Lambert, macht Gebrauch von Grafiken in hoher Qualität in seinem Werk Photometria.
  • 1764: wird posthum Essay zur Lösung eines Problems in der Lehre von der Chancen, in dem Thomas Bayes Formel den Fundamentalsatz der Bayes veröffentlicht
  • 1782: August Friedrich Wilhelm Crome, deutscher Ökonom, verwendet in seinen Producten-Karte von Europa, was jetzt Kartogramme genannt.
  • 1786: William Playfair verwendet Dutzende Diagramme in seiner Wirtschaft und Politik Atlas.

1800-1899

  • 1801: William Playfair stellt das Kreisdiagramm in seinem Statistische Brevier.
  • 1824: Die Zufallsvariable Cauchy durch Siméon Denis Poisson vor zwanzig Jahren Augustin Louis Cauchy sucht. Im Rahmen der kritisch für normalverteilte Zufallsvariable Poisson zeigt es, dass der arithmetische Mittelwert der n unabhängigen Fehlern mit der Dichtefunktion in Frage verteilt nicht in Richtung normaler neigen.
  • 1834 auf Vorschlag Lambert-Adolphe Jacques Quetelet wurde gegründet, das Statistical Society of London.
  • 1835 Lambert Adolphe Jacques Quetelet veröffentlichte einen Brief, in dem unter anderem gab es Daten über das Ausmaß der Brust von schottischer Soldaten und Statur des Wehrpflichtigen Französisch. Quetelet hat gezeigt, wie solche Daten wurden als normalverteilten Zufallsvariablen verteilt, aber kam nicht weiter.
  • 1853 auf Vorschlag Lambert-Adolphe Jacques Quetelet hielt die erste Kongress der Internationalen Institut für Statistik.
  • 1854: Der britische Arzt John Snow schafft es, Maßnahmen der öffentlichen Hygiene sparen Hunderte von Menschenleben von der Cholera, dank einer der frühen Studien Epidemiologen obwohl innovative und ungewöhnlich für die damalige Zeit, dass Ansatz,.
  • 1879: Louis Perozzo führt ein Stereogramm, das die dreidimensionale Pyramide der Bevölkerung aus den Volkszählungsdaten von 1750 bis 1875 die Schweden.
  • 1885 gründete das Internationale Institut für Statistik.

1900-1919

  • 1900
    • Karl Pearson hat die Chi-Framework.
    • Udny Yule Öffentlichkeit in den Philosophical Transactions der Royal Society of London Artikel über die Assoziation der Attribute in der Statistik, wo er führte den Index der Gesellschaft für Kontingenztafeln 2x2 sagte Q von Yule.
  • 1901
    • Es wurde gegründet, Biometrika britischen Magazin, auf Initiative von Karl Pearson, WFRWeldon und Charles Davenport. Zu den Kreditgebern gehören Francis Galton, einer der Redakteure der gleiche Karl Pearson.
  • 1903
    • Udny Yule beschreibt die paradox Simpson Artikel stellt fest, auf der Theorie der Vereinigung der Attribute in Statistik, erschien in Biometrika, ein halbes Jahrhundert vor Edward Hugh Simpson tat es mit dem Artikel Die Interpretation der Interaktion in Kreuztabellen im Blatt der Royal Statistical Society.
  • 1904
    • Karl Pearson führt den Begriff Kontingenztabelle.
    • Charles Spearman legt die Grundlage der Faktorenanalyse wird die Studie acht Jahre später zu vollenden.
    • Charles Spearman vorgeschlagene Koeffizient der Rangkorrelation.
  • 1908
    • William Sealy Gosset präsentiert die Zufallsvariable t Studenten und die entsprechenden Tests.

1920-1949

  • 1925
    • Ronald Fisher veröffentlicht bemerkenswerte statistische Verfahren für Forscher, die Generationen von Forschern beeinflussen. In diesem Text wird der Varianzanalyse.
    • Ronald Fisher führt das Konzept der Freiheitsgrade.
    • Während des Kongresses des Internationalen Instituts für Statistik, nach der Kontroverse dauerte Jahre, verabschiedete eine Resolution unterscheidet zwischen Stichproben und Probennahme begründet.
  • 1926
    • Udny Yule packt Warum wir Get Some Nonsense Korrelationen zwischen Time Series? Eine Studie über die Probenahme und die Art der Zeitreihen das Problem der Scheinkorrelation.
  • 1933
    • Andrey Nikolaevich Kolmogorov veröffentlicht die Axiome der Wahrscheinlichkeits in Grundbegriffe der Wahrscheinlichkeitsrechnung.
    • Andrey Nikolaevich Kolmogorov beschreibt die Statistik | Fn - F0 |.
    • Harold Hotelling gründete die Hauptkomponentenanalyse durch die Veröffentlichung "Analyse eines Komplexes von statistischen Variablen in Hauptkomponenten".
    • Jerzy Neyman und Egon Pearson veröffentlicht Am Problem der effizientesten Tests der statistischen Hypothesen, die den Ansatz der gerade "Neyman-Pearson" seit 1926 entwickelt wird beschrieben.
    • Während des Kongresses des Internationalen Instituts für Statistik, auf Initiative der K.Wikler, ist es ein Komitee für die Standardisierung der grafischen Darstellungen in der Statistik.
  • 1935
    • Ronald Fisher vorgestellt in The Design of Experiments Regel, die Versuche müssen, bevor sie durchgeführt programmiert werden, so dass statistische Tests können ihre Gültigkeit. In diesem Zusammenhang stellte er die Konzepte der Nullhypothese und experimentelle Hypothese. Er stellt fest, dass keine experimentellen Untersuchungen konnte die experimentelle Hypothese zu beweisen, sondern nur "accept" oder "ablehnen" die Nullhypothese, auch wenn sich viele Experimente, in denen sie die Nullhypothese, dass die erhöhte Glaubwürdigkeit experimentelle Hypothese wahr abgelehnt durchgeführt.
    • 12. September: Harold Hotelling ist in Ann Arbor vor der American Mathematical Society und dem Institut für Mathematische Statistik zum Thema "Die Beziehungen zwischen zwei Sätze von Zufallsvariablen", fandando so die Methode, wie multivariate kanonischen Korrelationsanalyse bekannt. Im selben Jahr "Die meisten vorhersagbaren Kriterium", das stellt auch die Grundlage für diese Methode veröffentlicht er.
    • Alexander Craig Aitken On Least Squares und Linearkombinationen von Beobachtungen führt die Matrixschreibweise für das lineare Regressionsmodell und die Schätzer für verallgemeinerte kleinste Quadrate im Fehlerfall Kovarianzmatrix nichtstandardisierte
  • 1936
    • George Gallup erhalten Berühmtheit richtig voraussah das Ergebnis der Präsidentschaftswahlen nur interviewen 50.000 Menschen, während der dann hoch bewerteten Literary Digest sensationell die Prognose verfehlt trotz interviewt viel mehr Menschen.
  • 1938
    • Physiker Frank Benford analysiert Sammlung von Zahlen formulieren Benford-Gesetz durch Mathematiker und Astronom Simon Newcomb und bereits im Jahre 1881 entdeckt, "American Journal of Mathematics."
  • 1939
    • Vladimir Smirnov baut den Kolmogorov-Smirnov.
    • Die italienische Gesellschaft für Statistik wurde 15. Januar 1939 gegründet.
    • Robert Tryon führt den Begriff Cluster-Analyse
  • 1942
    • Alexander Craig Aitken und Harold Silverstone veröffentlichen auf der Schätzung der statistischen Parameter, wo die Entwicklung von Ideen von Ronald Fisher einen Sonderfall, was jetzt als die Ungleichheit der Cramer-Rao bekannt ableiten
  • 1948
    • Es ist das Ergebnis einer Studie über den Einsatz von Streptomycin zur Behandlung von Tuberkulose, die Verwendung der ersten randomisierten klinischen Studie, die von Austin Bradford Hill entworfen gemacht hat, veröffentlicht.
  • 1949
    • George Kingsley Zipf, ein Linguist und Philologe US nach dem Studium der verschiedenen Sprachen für die Häufigkeit, mit der die Wörter angezeigt, schlägt "Human Behaviour und das Prinzip der geringsten Anstrengung" eine Beziehung jetzt als Zipf-Gesetz bekannt.

1950

  • 1960 - Sidney Siegel und John Tukey veröffentlichen den Test Siegel-Tukey in der Zeitschrift der American Statistical Association mit dem Artikel "Ein nichtparametrische Summe der Ränge für Verfahren im Zusammenhang Spreads in ungepaarte Proben".
  • 1975 - Gründung der Bernoulli-Gesellschaft für Mathematische Statistik und Wahrscheinlichkeits.
  • 1979 - Bradley Efron public "Bootstrap Methoden: ein weiterer Blick auf die Jackknife" in den Annals of Statistics, die Gründung der Bootstrap-Verfahren in der Statistik
  0   0
Vorherige Artikel Brabham BT44
Nächster Artikel Basketball Pavia

Kommentare - 0

Keine Kommentare

Fügen Sie einen Kommentar

smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile
Zeichen übrig: 3000
captcha