Wirtschaftslexikon
Wall Street
Definition: Was ist die Wall Street?
Der Begriff Wall Street beschreibt die amerikanische Finanzbranche oder den Bereich in New York City, wo die meisten Geschäfte getätigt werden.
© Campus Verlag