Amerikanisches Recht gibt es nicht

Wer amerikanisches Recht studiert hat, weiß, dass der Begriff amerikanisches Recht wenig taugt. Aus Kolonien wurden Staaten, als die USA unabhängig wurden. Als sie eine Bundesverfassung schrieben, blieb das Recht der Kolonien das geltende Recht, und der Bund erhielt auch ein paar Kompetenzen. Nach der Weltwirtschaftskrise usurpierte er mehr Macht, und 1937 gewährte der Supreme Court sie ihm. Doch die einzelnen Staaten geben weiterhin das Vertragsrecht, Strafrecht und fast alles vor, was den Durchschnittsbürger berührt ...Zum vollständigen Artikel


Cookies helfen bei der Bereitstellung unserer Dienste. Durch die Nutzung erklären Sie sich mit der Cookie-Setzung einverstanden. Mehr OK