Dokumentation zum Download für Claude Proxmox Skill

Sie finden in den asozialen Medien das was Sie finden wollen. Ich bilde mir meine Meinung indem ich Dinge selbst ausprobiere und validiere solche Aussagen. Aber natürlich - KI macht es möglich das unbedarfte Leute Programme schreiben, mit schlechten Instruktionen. Versuchen Sie meinen Proxmox Skill und bilden Sie sich danach eine Meinung !
 
Spoiler: Beispiel für CLAUDE.md für PVE
hier die "kleine" Version meines Skills, ohne 2-Stage Referenzmanuals - hier sind auch manche Ihrer Ideen eingeflossen.
einfach entpacken und das Verzeichnis bx-proxmox (der Name des Verzeichnisses muss zum Frontmatter im SKILL.md passen, daher nicht anders benennen) in den Ordner ~/.claude/skills kopieren. Viel Spaß beim ausprobieren !
 

Attachments

  • Like
Reactions: fba
Aber klar, ich bild' mir meine eigene Meinung.
Sie sagen also, Sie ziehen sozial Media Posts der eigenen Meinungsbildung vor. Verstehe.
Aber probieren Sie es trotzdem einfach mal aus. Investieren Sie eine Stunde, ich glaube Sie werden es nicht bereuen. Wenn mein Skill Blödsinn produziert nehme ich alles zurück und behaupte das Gegenteil.
 
> Die Scraper fressen irre viel Resourcen auf den Webseiten, die sie als Input für ihr Model nehmen.

Irrsinnig viele Ressourcen ? Also meine CPUs sind zum Teil 10 Jahre alt und handeln meinen nicht unerheblichen Traffic mit links.

dann sind deine Seite nicht relevant.
Wir betreiben mehrere tausend Domains als Hoster und glaube mir, 80-90 Prozent (minestens) des traffics sind bots.

Es gibt sehr wenig Webseiten die wirklich viel Traffic durch Menschen (also echte Besucher) erzeugen.
 
wie steht es mit der DSGVO oder interner compliance wenn du claude direkt auf den servern einsetzt? oder habe ich das falsch verstanden?

wir nutzen claude auch sehr intensiv, aber ausschließlich für Entwicklung und in sandboxes.

Sobald es um Echtdaten geht, setzen wir auf interne Inferenz (meist mit opencode, ollama, open webui).

Claude finde ich immer scary, wenn ich weiß im projekt Verzeichnis liegen credentials oder sshkeys usw
 
wie steht es mit der DSGVO oder interner compliance wenn du claude direkt auf den servern einsetzt? oder habe ich das falsch verstanden?

wir nutzen claude auch sehr intensiv, aber ausschließlich für Entwicklung und in sandboxes.

Sobald es um Echtdaten geht, setzen wir auf interne Inferenz (meist mit opencode, ollama, open webui).

Claude finde ich immer scary, wenn ich weiß im projekt Verzeichnis liegen credentials oder sshkeys usw
Sehr berechtigte Einwände - aber den Zugriff auf diese Dateien kann ich einschränken indem ich dem user unter dem Claude läuft keinen Zugriff auf diese Dateien erlaube. Opencode, Ollama egal ob über WebUI (oder besser Gemini CLI) sind aber ziemlich "hinten nach"
 
Last edited:
dann sind deine Seite nicht relevant.
Wir betreiben mehrere tausend Domains als Hoster und glaube mir, 80-90 Prozent (minestens) des traffics sind bots.

Es gibt sehr wenig Webseiten die wirklich viel Traffic durch Menschen (also echte Besucher) erzeugen.
Bähääää ich bin irrelevant. Aber was hat das damit zu tun das ich um ein paar PDF Dateien bitte, bzw. im Notfall den Content einmalig herunterlese, wie es auch ein Mensch tun würde ?
 
Sehr berechtigte Einwände - aber den Zugriff auf diese Dateien kann ich einschränken indem ich dem user unter dem Claude läuft keinen Zugriff auf diese Dateien erlaube.
womit du claude aber um die "agentischen" Fähigkeiten bringst. Ausserdem ist es auch ein bisschen ein Kampf gegen Windmühlen sofern du nicht eine "deny all" policy etablierst.

btw gehöre ich zur Fraktion die glaubt, dass KI von Nutzen ist für sysadmins. Die Kosten-Nutzung Rechnung ist allerdings ein Problem imo. Zuviel Energie für den Nutzen zZt. Sieht man, wenn man Inferenz selbst macht und nicht auf mit Millarden gesponsorte Provider a la Anthropic zurück greift (oder andernorts "echte Kosten" bezahlen muss).
 
  • Like
Reactions: Johannes S
ich denke wir entfernen und zu sehr vom Thema. Ich möchte, bzw, kann niemandem vorschreiben was er wann, wo, wie verwenden soll oder nicht. Ich verwende es mit sehr gutem Erfolg, es macht mich viel schneller - und ich baue meine eigenen Skills, weil fremde Skills ein Sicherheitsrisiko darstellen können. Jeder soll sich sein eigenes Bild machen - oder auch nicht.
 
  • Like
Reactions: pvps1
Die Kosten-Nutzung Rechnung ist allerdings ein Problem imo. Zuviel Energie für den Nutzen zZt. Sieht man, wenn man Inferenz selbst macht und nicht auf mit Millarden gesponsorte Provider a la Anthropic zurück greift
Also :



1) Energie für einen Hamburger​

Es gibt Abschätzungen für den gesamten Energieeinsatz entlang der Kette für einen Hamburger (Brötchen, Patty, etwas Gemüse usw.). Die liegen bei ca. 7,3 bis 20 MJ pro Hamburger. (ResearchGate)
Umgerechnet sind das ca. 2,0 bis 5,6 kWh pro Burger.
(1 kWh = 3,6 MJ)

2) Energie für eine LLM Anfrage​

Für LLM Inference schwanken seriöse Schätzungen je nach Modell und Promptlänge stark.

  • Für ChatGPT ähnliche Anfragen werden Werte um 0,3 bis 0,4 Wh pro typische kurze Anfrage genannt. (Epoch AI)
  • Ein neuere Benchmark Studie schätzt für ein Anthropic Modell (Claude-3.7 Sonnet) je nach Promptgröße ungefähr. 0,836 Wh (kurz), 2,781 Wh (mittel), 5,518 Wh (lang). (arxiv.org)
Wichtig. Das sind primär Rechenzentrum und Modell Inference im jeweiligen Ansatz. Endgerät, WLAN, Mobilfunk können je nach Situation zusätzlich etwas beitragen, sind bei einer einzelnen Textanfrage aber oft kleiner als die Modellspanne. (onlinelibrary.wiley.com)

3) Direkter Vergleich als Verhältnis​

Jetzt wird es anschaulich. Ich nehme den Burger Bereich 2,0 bis 5,6 kWh. Das sind 2.000 bis 5.600 Wh.

Verglichen mit einer LLM Anfrage.

  • Gegen typische kurze Anfrage 0,34 Wh. Burger ist grob 6.000 bis 16.000 mal energieintensiver. (The Verge)
  • Gegen eine lange, “teure” Anfrage um 5,5 Wh. Burger ist grob 360 bis 1.000 mal energieintensiver. (arxiv.org)

4) Und speziell “Claude Opus”​

Für “Claude Opus” selbst ist mir keine durchgehend verlässliche, offiziell bestätigte Wh pro Anfrage Zahl bekannt, die so zitierfähig wäre wie die obigen Benchmarks. Praktisch gilt aber. Opus ähnelt eher den größeren, teureren Modellen. Je länger Prompt und Output, desto näher rückt man Richtung “mehrere Wh” pro Anfrage. Dann bleibt der Burger typischerweise immer noch hunderte bis tausende mal darüber.

wenn es nach dem geht, so darf ich gar nicht mehr administrieren - denn ich brauche definitiv mehr als einen Burger pro 1000 Anfragen.
 
Sie sagen also, Sie ziehen sozial Media Posts der eigenen Meinungsbildung vor
Ich ziehe den social media Posts einen anerkannten und renommierten Sicherheitsexperten dem social media (Forumspost) eines KI-Befürworters vor, da ich glaube dass ersterer zu den Security-Implikationen sich besser auskennt als ein KI-Bro.
Ihre Art und Weise auf Einwände einzugehen ist jedenfalls hervorragende Anti-Werbung, dafür besten Dank
 
haha, Sie sind sehr lustig. Mir ist es völlig schnuppe ob Sie das befürworten, einsetzen oder eben nicht. Sie haben Ihren Standpunkt klar gemacht, danke dafür. Ich hab absolut nix davon und verkaufe auch nix. Mein Interesse ist lediglich das jemand den Skill testet der sich auf Proxmox besser auskennt als ich, um diesen gegebenenfalls zu verbessern und der Allgemeinheit zur Verfügung zu stellen. Und Technologie zu ignorieren - Das hat ja schon immer gut funktioniert - um es mit Ihren Worten zu sagen. Insbesondere Microsoft setzt Vollgas auf KI, können Sie ja bei Satya Nadella mal nachfragen.
Selbstverständlich ist Security ein Thema - und man kann KI gut, oder eben weniger gut einsetzen, so wie jedes Tool.
 
Das hier ist das Proxmox Community Support Forum und der Name sollte grundsätzlich schon auch Programm sein, bitte also schon auch etwas bei dem Thema bleiben.

Der Thread hat auch einige Reports und Spam Triggers generiert, etwas offensichtlich grob Problematisches konnte wir zwar nicht feststellen, jedoch wurde jetzt nicht alles hier im Detail analysiert, da uns, ehrlich gesagt, dafür auch die Zeit etwas schade ist.
LLM-generierte antworten sollten zumindest also solche markiert werden, unwissentlich mit Bots zu diskutieren ist mühsam und bringt nicht viel, da hilft ein Mensch als Proxy dazwischen auch nicht wirklich.