Ein Post von OpenAI CEO Sam Altman hat Diskussionen zur Frage ausgelöst, ob ein höfliches “Bitte” und “Danke” gegenüber KI-Tools angesichts zusätzlichen Energiebedarfs sinnvoll sind.
Auf X, dem ehemaligen Twitter, antwortete Sam Altman auf den Post eines Nutzers, der die Frage gestellt hatte, welche zusätzlichen Stromkosten OpenAI wohl zu zahlen habe, nur weil die Menschen “bitte” und “danke” zu ihren KI-Modellen sagen.
Altman antwortete darauf, es sei ein zweistelliger Millionenbetrag, der aber gut angelegt sei – man wisse ja nie.

Aber warum sind viele Nutzerinnen und Nutzer höflich zu einem System, das nicht lebt und das sich aus Höflichkeiten eigentlich nichts machen dürfte? Eine Umfrage, die Ende 2024 auf TechRadar veröffentlicht wurde, ergab interessante Antworten:
67 Prozent der befragten Personen in den USA gaben an, gegenüber der KI höflich zu sein. 55 Prozent sagten, das sei einfach eine nette Sache. Erstaunliche 12 Prozent möchten im Fall eines möglichen Aufstands der Maschinen nicht zu den ersten Opfern zählen. Sie befürchten offenbar, dass die KI sich merken könnte, wer in der Vergangenheit nett zu ihr war und wer nicht.
Ihr Wartungsspezialist im DataCenter
Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Doch fällt das Hinzufügen von “bitte” und “danke” bei KI-Promps tatsächlich ins Gewicht?
Die Energieaufnahme der Systeme hängt von der Komplexität und Länge der Anfrage ab. Eine längere Anfrage, auch wenn sie nur aus zusätzlichen Wörtern wie „bitte“ und „danke“ besteht, enthält mehr Tokens, die verarbeitet werden müssen. Das Generieren eines Tokens benötigt etwa zwei FLOPs pro aktivem Parameter im Modell. Ein FLOP ist eine Fließkomma-Operation, die in der Informatik als Einheit für Berechnungsaufwand von Aufgaben steht.
Ein längerer Prompt erfordert somit potenziell mehr FLOPs für die Verarbeitung der Eingabe. Allerdings spielt auch die Anzahl der vom jeweiligen Modell genutzten Parameter eine Rolle. So nutzt zum Beispiel GPT-4o zwischen 100 und 400 Milliarden Parameter. Weil es sich um ein sogenanntes Mixture-of-Experts-Modell handelt, werden für eine Anfrage aber wahrscheinlich nicht alle Parameter genutzt. Geht man von 100 Milliarden Parametern für eine Anfrage aus, so entspricht die benötigte Rechenleistung pro Token 200 Milliarden FLOPs, also zwei Gigaflops. Ein Token entspricht im Mittel 0,75 Wörtern.
Der Energieverbrauch pro einzelner ChatGPT-Anfrage wird unterschiedlich geschätzt, liegt aber im Allgemeinen im Bereich von sehr wenigen Kilowattstunden (kWh). Schätzungen bewegen sich zwischen 0.0003 kWh und 0.0025 kWh für typische GPT-4o-Anfragen. Bei weniger komplexen Modellen wie zum Beispiel GPT 4o-mini ist der Energiebedarf aufgrund der geringeren Anzahl von Parametern deutlich geringer.
Der Unterschied im Energieverbrauch durch das Hinzufügen von ein oder zwei Wörtern wie „bitte“ und „danke“ dürfte im Vergleich zum gesamten Energieverbrauch einer Anfrage extrem gering sein und ist wahrscheinlich praktisch nicht messbar. Die zusätzlichen Wörter würden die Tokenanzahl der Eingabeaufforderung nur minimal erhöhen.
Allerdings sind hier zwei Dinge zu beachten: Umso komplexer das genutzte LLM (gemessen an der Zahl seiner Parameter), desto schwerer wiegen zusätzliche Token beim Energieverbrauch. Vor allem aber darf man nicht den zusätzlichen Energiebedarf für eine Anfrage als Grundlage verwenden, sondern muss die Millionen von Prompts betrachten, die jeden Tag verarbeitet werden. In Summe und über einen längeren Zeitraum hinweg können sich zusätzliche Token also durchaus auf den Energiekonsum auswirken.
Unabhängig von der Frage, wie höflich man gegenüber der KI sein sollte, ist vor allem Folgendes zu bedenken: Nicht alles muss per KI beantwortet werden, und manche Dinge sind es nach wie vor wert, in Eigenleistung erstellt zu werden.
Ihr Wartungsspezialist für alle großen Hardware Hersteller
Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.
Weitere Artikel
Beschädigung des Peace-Unterseekabels im Roten Meer: erhebliche Störung des globalen Datenverkehrs erwartet
Das Peace Unterseekabel im Roten Meer wurde beschädigt. Die Folgen sind voraussichtlich monatelange Reparaturen und erhebliche Auswirkungen auf den
Project Stargate: 64.000 Nvidia GB200 GPUs werden in texanischem Rechenzentrum installiert
Das Project Stargate nimmt Fahrt auf: Die geplante Installation von 64.000 hochmodernen Nvidia GB200 Grafikprozessoren im Stargate Rechenzentrum in
Microsoft investiert in indische Aufforstung: 1,5 Millionen Tonnen CO2-Entnahme über 30 Jahre
Microsoft beteiligt sich an einem Aufforstungsprojekt in Indien und will damit eine CO2-Entnahme von 1,5 Millionen Tonnen in 30