Was ist tanh?

# Tangens Hyperbolicus (tanh)

Der Tangens Hyperbolicus, oft mit `tanh` abgekürzt, ist eine [[Hyperbolische Funktion](https://de.wikiwhat.page/kavramlar/Hyperbolische%20Funktion)], die eng mit dem Sinus Hyperbolicus (`sinh`) und Cosinus Hyperbolicus (`cosh`) verwandt ist.

**Definition:**

Die Funktion `tanh(x)` ist definiert als:

tanh(x) = sinh(x) / cosh(x) = (e^x - e^-x) / (e^x + e^-x)


**Eigenschaften:**

*   **Wertebereich:** Der Wertebereich von `tanh(x)` ist (-1, 1). Das bedeutet, dass die Funktion immer einen Wert zwischen -1 und 1 zurückgibt.
*   **Symmetrie:** `tanh(x)` ist eine [[Ungerade Funktion](https://de.wikiwhat.page/kavramlar/Ungerade%20Funktion)], d.h. `tanh(-x) = -tanh(x)`.
*   **Ableitung:** Die Ableitung von `tanh(x)` ist `sech^2(x) = 1 - tanh^2(x)`, wobei `sech(x)` der [[Secans Hyperbolicus](https://de.wikiwhat.page/kavramlar/Secans%20Hyperbolicus)] ist.
*   **Monotonie:** `tanh(x)` ist streng monoton steigend.
*   **Grenzwertverhalten:**
    *   `lim x-> ∞ tanh(x) = 1`
    *   `lim x-> -∞ tanh(x) = -1`

**Anwendungen:**

*   **Neuronale Netze:**  `tanh(x)` wird häufig als [[Aktivierungsfunktion](https://de.wikiwhat.page/kavramlar/Aktivierungsfunktion)] in neuronalen Netzen verwendet, da sie eine Ausgabe zwischen -1 und 1 liefert und eine stärkere Gradientendynamik im Vergleich zur Sigmoidfunktion bieten kann (besonders in tieferen Netzwerken).
*   **Physik:** In der Physik findet `tanh(x)` Anwendung bei der Beschreibung verschiedener Phänomene, z.B. bei der Beschreibung von [[Magnetisierungskurven](https://de.wikiwhat.page/kavramlar/Magnetisierungskurven)].
*   **Maschinelles Lernen:** Neben neuronalen Netzen findet `tanh` auch in anderen Bereichen des [[Maschinelles Lernen](https://de.wikiwhat.page/kavramlar/Maschinelles%20Lernen)] Anwendung.

**Visualisierung:**

Der Graph von `tanh(x)` ist eine S-förmige Kurve, die sich asymptotisch an die Werte -1 und 1 annähert.