Zum Hauptinhalt springen

NLP-Ausbildungen,
Seminare, Trainings

Shoja
NLP Glossar

Das große Wörterbuch des NLP

Hier haben wir ein sehr umfangreiches NLP-Fachlexikon zusammengestellt, das sowohl für NLP-Schüler wie auch für NLP-Trainer als gehaltreiches Nachschlagewerk genutzt werden kann.

Entropie

Definition:

Wissenschaftlicher Ausdruck für den Umfang und das Ausmaß von Zufälligkeiten bzw. Unordnung in Prozessen und Systemen, das im Prinzip als das 'Gegenteil von Information' beschrieben werden kann. Charakteristisch hierfür ist die Tendenz zu einer Zufälligkeit von Ereignissen innerhalb eines Systems, wie Z.B. das Endergebnis des Spiels: 'Stille Post'. Im NLP kann der natürlichen Tendenz zu Entropie in menschlichen Systemen mit unterschiedlichen Ansätzen entgegengewirkt werden.