Begriff | Definition |
---|---|
Entropie | Wissenschaftlicher Ausdruck für den Umfang und das Ausmaß von Zufälligkeiten bzw. Unordnung in Prozessen und Systemen, das im Prinzip als das "Gegenteil von Information" beschrieben werden kann. Charakteristisch hierfür ist die Tendenz zu einer Zufälligkeit von Ereignissen innerhalb eines Systems, wie Z.B. das Endergebnis des Spiels: "Stille Post". Im NLP kann der natürlichen Tendenz zu Entropie in menschlichen Systemen mit unterschiedlichen Ansätzen entgegengewirkt werden. |