Dokumentation zum Download für Claude Proxmox Skill

bitranox

New Member
Oct 11, 2024
7
5
3
Hallo,
ich administriere mittlerweile meinen keinen Proxmox Cluster (8 Nodes) immer mehr mit claude-cli -
um die Antworten der KI zu verbessern setze ich in anderen Bereichen "Skills" ein -
ich würde gerne ein Proxmox Skill bauen, finde aber nur das Referenzmanual als PDF zum Download.
Weitere Dokumente wie :
HOWTO, TROUBLESHOOTING usw. , sowie PDF´s (oder ideal *.MD´s) für PBS, MAILGATEWAY etc. wären ebenfalls fein.

Natürlich kann ich auch die Webseite scrapen, aber ein Download solcher Dokumente würde sehr helfen.

mit freundlichen Grüßen

Ing. Robert Nowotny, aka bitranox
 
Was genau brauchst du für Referenzmaterial. Hast du deine KI schon mal über das Wiki gejagt?
 
Hallo Falk, steht an sich im Post. Referenzmanual gibt es als PDF, HOWTO, TROUBLESHOOTING etc. aber nicht.
Scrapen kann ich natürlich aber wenn es pdf. *.md oder ein anderes gut strukturiertes Material gibt würde ich dies dem Scrapen vorziehen.
 
OK, dann muss wohl mal einer vom Staff schreiben ob es da was gibt.
 
Mich würde ja eher interessieren, ob das aus Sicht des Staffs überhaupt gewollt ist. Schließlich wird beim bugzilla ja schon immer einen erstmal der anubis-Ladebalken angezeigt, um die Scraper wegzuhalten.
 
  • Like
Reactions: ThoSo and gurubert
warum sollte das nicht gewollt sein ? Ein entsprechendes Skill erleichtert die Administration von Proxmox erheblich - und dafür ist die Hilfe ja da. Ich muss die nicht selber lesen. Claude macht das für mich ;-)
Der Ansatz "ich stelle Hilfe zur Verfügung, aber bitte nur für Humans, nicht für KI´s" wäre irgendwie 2023.
 
  • Like
Reactions: 6equj5
Es geht nicht darum NICHT zu lernen. es geht um Produktivität. Ich verstehe nicht warum man sich einer agentischen Arbeitsweise verschließen möchte.
Es ist einfach ein neues mächtiges Tool welches mich produktiver - und im Notfall auch schneller macht.
 
Dann bin ich halt 2023, so what?
Damit KIs als Werkzeug brauchbar sein können, braucht der User selbst noch Wissen, um passende Prompts zu stellen und ( vor allen ) falsche von richtigen Antworten zu unterscheiden. Genau darum sind sie aber nur bedingt als Lernwerkzeug geeignet, da man als Newbie genau das eben noch nicht einordnen kann oder eben der Lerneffekt durch Selbstmachen fehlt. Die ersten Unis machen sich schon Gedanken, wie sie damit in ihrer Lehre umgehen. In den Anfängervorlesungen bestehen die Hausaufgaben oft darin Dinge zu tun ( wie eine bestimmte Datenstruktur zu programmieren) , die man später niemals selbst machen würde, eben um ein Grundverständnis zu entwickeln.
Dadurch, dass viele Leute sich dass nun von der KI machen lassen, entfällt halt dieser Lerneffekt. Gut für alte Säcke wie mich, sonst eher eine bedenkliche Entwicklung.
Persönlich merke ich auch, dass ich wenig Motivation habe offensichtlich ( emoji-Schwemme, ständig gleiches Format) per KI erzeugen Anfragen zu helfen: Jemand will sich nicht die Mühe machen, sein Problem zu beschreiben, warum sollte ich dann unbezahlt Zeit reinstecken? Dass im Forum nur noch KI-Fragen mit KI-Antworten beantwortet werden, kann es ja wohl nicht sein, ist aber die logische Konsequenz.

Aber das war gar nicht mal, worauf ich hinauswollte: Die Scraper fressen irre viel Resourcen auf den Webseiten, die sie als Input für ihr Model nehmen. U.A. wegen dem Claudebot sperrt der Webhoster Uberspace die Scraper-Bots: https://blog.uberspace.de/2024/08/bad-robots/
Ein anderer Absatz ( auf Basis von javascript im Browser ) ist eben Anubis, das wurde auch entwickelt, um den Scrapern und KI-Bots das Leben schwerer zu machen und kommt u.A. auf dem Archiv der linux-kernel Mailingliste oder Proxmox bugtracker zum Einsatz: https://anubis.techaro.lol/

Ich unterstelle daher , dass die Proxmox Entwickler wenig Interesse daran haben, dass ihr Content hilft diese Resourcenverschwendung durch LLMs weiter auszubauen. Aber ich kann nicht in ihre Köpfe gucken, vielleicht betrifft das ja nur den Bugtracker plus evtl. Listenarchive, aber nicht Forum und Wiki/Doku?
Vielleicht kann sich dazu wer vom Team äußern?
 
Last edited:
> Damit KIs als Werkzeug brauchbar sein können, braucht der User selbst noch Wissen, um passende Prompts zu stellen und ( vor allen ) falsche von richtigen Antworten zu unterscheiden.

Absolut richtig. Die Arbeit verschiebt sich nur vom eigentlichen Administrieren auf Orchestrieren. Ist doch nett wenn ich mit dem Manual sprechen kann.

> Dadurch, dass viele Leute sich dass nun von der KI machen lassen, entfällt halt dieser Lerneffekt. Gut für alte Säcke wie mich, sonst eher eine bedenkliche Entwicklung.

Richtig. KI macht keinen guten Administrator. Aber einen guten Administrator schneller. Und von wegen alter Sack - ich habe noch Lochstreifen in das Terminal an der HTL Schellinggasse geschoben um den Host auf der TU zu füttern.

> Die Scraper fressen irre viel Resourcen auf den Webseiten, die sie als Input für ihr Model nehmen.

Irrsinnig viele Ressourcen ? Also meine CPUs sind zum Teil 10 Jahre alt und handeln meinen nicht unerheblichen Traffic mit links. Ich denke es liegt nicht an den Ressourcen sondern eher daran das vielleicht IP oder andere Interessen geschützt werden sollen (der Agent liest halt keine Werbung ...). Wie Peter Steinberger (OpenClaw) richtig anmerkt : Jede App und jede Webpage wird zu einer (langsamen und crappy) API. Deswegen - gleich API oder Daten zur Verfügung stellen. Apps werden verschwinden - genau so wie Pferdekutschen verschwunden sind.

> Ich unterstelle daher , dass die Proxmox Entwickler wenig Interesse daran haben, dass ihr Content hilft diese Resourcenverschwendung durch LLMs weiter auszubauen.

Dieses Interesse hat niemand. Deswegen frage ich auch höflich ob diese Unterlagen nicht in einer strukturierten, herunterladbaren Form zur Verfügen stehen - wie auch das Proxmox Referenzmanual.

Ich verstehe den Hass und die Frustration gegen diese neuen Gegebenheiten nicht. Ich bin auch ein altes Eisen aber es ist ein verdammt gutes Tool - und keiner wird es aufhalten können, der Zug ist abgefahren.

PS: ich lade Dich ein den Skill zu testen wenn er fertig ist - ich glaube ich hab noch ein paar Gutscheine für Claude zu vergeben, dann kannst Du mit vielleicht objektives Feedback geben.
 
Last edited:
Absolut richtig. Die Arbeit verschiebt sich nur vom eigentlichen Administrieren auf Orchestrieren. Ist doch nett wenn ich mit dem Manual sprechen kann.

Wozu? Ich habe das nie gebraucht, ich bin schneller, wenn ich im Manual bzw. bei Google nach keywords suchen kann, statt mir einen Prompt überlegen zu müssen, dessen Antwort ich außerdem noch auf seine Korrektheit überprüfen muss. Bei Google-Ergebnissen sehe ich ja die Quelle, das hilft dann auch um einzuordnen, ob das brauchbar ist oder nicht.

Es gibt Studien wonach KI auch Entwickler nicht schneller macht (also messbar nicht schneller), sie glauben es halt nur, weil es halt ein schönes Spielzeug ist.

> Die Scraper fressen irre viel Resourcen auf den Webseiten, die sie als Input für ihr Model nehmen.

Irrsinnig viele Ressourcen ? Also meine CPUs sind zum Teil 10 Jahre alt und handeln meinen nicht unerheblichen Traffic mit links. Ich denke es liegt nicht an den Ressourcen sondern eher daran das vielleicht IP oder andere Interessen geschützt werden sollen (der Agent liest halt keine Werbung ...). Wie Peter Steinberger (OpenClaw) richtig anmerkt : Jede App und jede Webpage wird zu einer (langsamen und crappy) API. Deswegen - gleich API oder Daten zur Verfügung stellen. Apps werden verschwinden - genau so wie Pferdekutschen verschwunden sind.

Siehe den von mir verlinkten Post von uberspace. Ich halte da einen Hoster (dessen Geschäftsmodell immerhin darauf beruht möglichst viel Traffic für seine Kunden zu verarbeiten) da für glaubwürdiger, als unsere individuelle Erfahrung ;) Auch die Linux-Foundation hat eigentlich kein Budget-Problem, warum setzen sie dann Tools ein, um Scraper rauszuhalten? An grundsätzlicher Apathie kann es doch kaum liegen, sind LLMs für Thorvalds doch "einfach nur ein weiteres Tool" (1)
Ich verstehe den Hass und die Frustration gegen diese neuen Gegebenheiten nicht. Ich bin auch ein altes Eisen aber es ist ein verdammt gutes Tool - und keiner wird es aufhalten können, der Zug ist abgefahren.

Da wäre ich mir nicht so sicher. Aktuell macht keiner der großen KI-Firmen Gewinn, sondern lebt von Risikokapital. Das wird früher oder später einen return-of-investment sehen wollen. Sobald die Preise dann erhöht werden, wird sich zeigen, in welchen Szenarien menschliche Arbeit oder klassische Automatisierung per Computer nicht doch günstiger ist. Aktuell ist es an vielen Punkten auch viel Hype. Um z.B. Posteingänge automatisiert zu klassifizieren (Beispiel aus meinen beruflichen Umfeld) braucht es eigentlich gar kein LLM, da gab es auch vor der aktuellen Bubble schon Software für. Aber das kann man halt nicht beim Buzzword-Bingo gewinnen :)
Das Problem sind auch nicht so sehr die neuen Gegebenheiten, sondern wie Leute damit umgehen. Oder wie ein Kollege es formuliert hat: Bevor man neue Technik einführt, sollte man erstmal die Alte beherschen. Womit wir wieder bei meinen Beispiel mit den Programmieren-Hausaufgaben für Studierende wären, da ist ja genau das das Problem (dass das alte eben nicht beherscht wird und das die KI einen abnehmen soll). Ein anderes Beispiel (selbst erlebt) war, wie sich jemand ein Skript von einen LLM hat erstellen lassen um ein Feature zu haben, was eines der vorhandenen Tools schon hatte (über eine entsprechende Option auf der Konsole) und auch in der Hilfe (--help) bzw. manual page dokumentiert war. Da wäre einmal ./tool --help definitiv schneller gewesen...

(1) Was der gute Mann nicht sieht, aber worauf ihn einer seiner Mitentwickler hingewiesen hat: KI macht es Leuten leichter, die ihren Lebenslauf mit einen Beitrag zum Linux-Kernel aufhübschen wollen, aber eigentlich keine Ahnung haben, irgendeinen Bullshit einzureichen, der dann erstmal aufwändig reviewt werden muss. Die werden so ein offizielles "Ist doch auch nur ein Tool" als Einladung missverstehen, obwohl das sicher nicht Thorvalds Absicht ist.
 
  • Like
Reactions: ThoSo and gurubert
Hallo,
ich würde gerne ein Proxmox Skill bauen, finde aber nur das Referenzmanual als PDF zum Download.
ich dachte bisher, in die md-Datei muss eine Beschreibung der Infrastruktur rein, Guards, Workflows usw. Die ganzen Basis-Befehle sollte Claude doch schon aus seinem Trainingsmaterial kennen.
Wenn ich eine freundliche AI frage, erhalte ich nach wenigen Prompts schon sowas, reicht Dir das nicht? So weit ich weiß, nimmt die "Aufmerksamkeit" für einzelne Details mit der Menge der Regeln ohnehin ab, die ganze API hineinzukippen, bringt also nichts.
Oder hab ich Dich und Dein Ziel falsch verstanden?

Cluster-Konfiguration
  • Umgebung: Proxmox VE 9.x (Enterprise/Community)
  • Nodes: 8 physische Knoten (pve-01 bis pve-08)
  • Quorum-Status: Kritisch (5/8 Knoten für Mehrheit erforderlich)
  • API-Zugriff: Über pvesh (lokal) oder Proxmox API (Remote)
  • Storage: [HIER STORAGE-TYP EINTRAGEN, z.B. Ceph, ZFS over iSCSI, NFS]

️ Sicherheits- & Schutzregeln (Safety Protocols)
  • Keine destruktiven Massenoperationen: Befehle, die mehr als einen Knoten gleichzeitig betreffen (Reboot, Shutdown, Bulk-VM-Stop), müssen explizit vom User bestätigt werden.
  • Quorum-Check: Vor jedem Knoten-Reboot oder Wartungsmodus prüfen: pvecm status. Operation abbrechen, wenn das Quorum bei Vollzugriff gefährdet ist
  • Backup-First: Vor Änderungen an VM-Konfigurationen oder Upgrades prüfen, ob ein aktuelles Backup existiert (vzdump).
  • Kein "Force"-Delete: Niemals --purge oder --force verwenden, ohne vorher die ID der Ressource doppelt zu validieren.
  • HA-Status: Bei Änderungen an HA-Clustern zuerst den HA-Manager Status prüfen (ha-manager status).

Management-Befehle (Cheat Sheet)
  • Cluster-Status: pvecm status / pvecm nodes
  • VM/LXC Liste (global): pvesh get /cluster/resources --type vm
  • Node-Metriken: pvesh get /nodes/{node}/status
  • Storage-Check: pvesh get /storage
  • Replikations-Status: pvesh get /cluster/replication
  • Service-Log: journalctl -u pve-cluster -f

Code- & Antwort-Stil
  • Antworten: Kurz, technisch präzise, Fokus auf CLI-Befehle (pvesh).
  • Fehlersuche: Bei Fehlern immer zuerst die Logs des betroffenen Knotens abfragen (/var/log/pveproxy/access.log).
  • JSON-Präferenz: Bei Datenabfragen bevorzugt pvesh --output-format json verwenden, um die Datenstruktur sauber zu analysieren.
  • Rollback-Plan: Jede vorgeschlagene Änderung muss (gedanklich) einen Rückkehrschritt enthalten.

Spezielle Workflows für 8 Knoten
  • Updates: Immer nacheinander (Rolling Updates). Node 1 -> Test -> Node 2.
  • Migration: Bei Load-Balancing-Vorschlägen die Ziel-Node-Auslastung (cpu, mem) vorher prüfen.
  • Netzwerk: Änderungen an interfaces immer mit ifreload -a vorbereiten, niemals direkt das Interface killen.
  • ID-Management: Vor dem Erstellen von VMs prüfen, ob die VM-ID im Bereich [DEIN BEREICH, z.B. 1000-2000] liegt, um Kollisionen mit bestehenden Clustern zu vermeiden.

Netzwerk-Diagnose (Cluster-Wide)
  • Interface-Status (API): pvesh get /nodes/{node}/network (zeigt Brücken, Bonds und IPs)
  • Bonding-Check (LACP/Failover): cat /proc/net/bonding/bondX (ersetze X durch Bond-ID, meist 0 oder 1)
  • OVS-Status (falls genutzt): ovs-vsctl show
  • MTU & Link-Speed: ip link show (wichtig für 10G/25G/40G Backplane-Checks)
  • VLAN-Brücken-Check: bridge vlan show
  • Netzwerk-Konfiguration testen: ifreload -a --test (vor der Aktivierung!)
 
@Johannes S

>Wozu? Ich habe das nie gebraucht, ich bin schneller, wenn ich im Manual bzw. bei Google nach keywords suchen kann, statt mir einen Prompt überlegen >zu müssen, dessen Antwort ich außerdem noch auf seine Korrektheit überprüfen muss

sorry, aber dann hast du dich noch nie ernsthaft mit KI auseinandergesetzt bzw. mal an konkreten beispielen erfahren, wieviel produktiver man mit KI informationen zusammengrabbelt.

ich bin auch nen alter sack "von gestern" (admin) und in vielen dingen furchtbar rückständig und "zu fuss" unterwegs - aber seit KI bin ich mind. faktor 10 schneller als wenn ich mir "manuell" informationen via manpages oder ergoogleten seiten zusammensuche. und ich hab mich da immer als ganz gut und geübt drin gesehen. KI liefert mir die Informationen die ich suche meist komprimert und auf den punkt. die essenz. ohne irgendwelches gescrolle und gesuche. und auch ohne komplexe/komplizierte prompts.

man muss es leider sagen wie es ist - KI ist produktivitätsschub hoch 10 und leider ist jeder der das nicht für sich einzusetzen weiss bald vermutlich abgehangen vom rest der welt.
 
Last edited:
Ich bin auch ein sehr wenig KI Nutzer.
Habe aber letztens bei einem Kunden zuschauen dürfen wie eine KI einen Fehler auf einem Server fixt.
Das ganze hat 15 Minuten gedauert, ich wäre mit suchen im Netz nicht schneller gewesen.
Aber die KI war super gründlich und hat mehrfach Logs geprüft und auch beim fixen deutlich mehr getestet als ich es getan hätte.
Vor allem beim analysieren der Logs war das mega hilfreich, so schnell hätte ich niemals die entsprechenden Zeilen gefunden.

Das ist tatsächlich ein extrem mächtiges Werkzeug, aber bevor die KI fixen durfte, sollte ich die Ergebnisse gegenprüfen, wofür man schon verstehen sollte was da passiert.
Aber als Werkzeug spart das wirklich Zeit und das analysieren der Logs geschieht so gründlich, allein dafür ist das schon genial.
 
Last edited:
Wenn ich eine freundliche AI frage, erhalte ich nach wenigen Prompts schon sowas, reicht Dir das nicht? So weit ich weiß, nimmt die "Aufmerksamkeit" für einzelne Details mit der Menge der Regeln ohnehin ab, die ganze API hineinzukippen, bringt also nichts.
Oder hab ich Dich und Dein Ziel falsch verstanden?
Ein Skill mit referenzierten Dokumenten wird nicht gesamt in den Kontext geladen - sondern nur die Skills (via Frontmatter) und Referenzen im SKILL.md die matchen. d.h. wenn man die *.md entsprechend strukturiert und den Inhalt kurz in der SKILL.md beschreibt, werden auch nur relevante Dokumente geladen. Da die Trainingsdaten zum Teil veraltete Versionen etc. enthalten ist eine solche Guideline nützlich. Ihre CLAUDE.md ist sehr gut gemacht, kann aber in eine Skill umgewandelt werden, die dann eben nur bei Bedarf geladen wird ohne den Kontext vollzuballern (die Claude.md wird hingegen immer geladen). Claude Opus 4.6 hat ein Kontextfenster von 1 Mio. Token - das wären ca. 1500 Seiten Manual ..... aber ja - einfach reinladen ist kontraproduktiv wegen Haystack Problemen. Aus Ihrem claude.md eine skill zu machen ist trivial (z.B. via superpowers skill-writer skill - eine skill zum erstellen von skills) - ziemlich meta, nicht wahr ? Denkbar ist statt referenzierten Dokumenten auch die Aufteilung in mehrere Skills nach Thema - z.B.
PBS, ceph,, etc. kann man in eigene Skills auslagern (oder eben als referenzierte Dokumente). der skill-writer skill unterstützt z.T. auch TDD für den Skill, d.h. vergleicht Antworten mit und ohne dem skill .... ziemlich krass. Der skill-writer skill ist zwar ein bisserl buggy, aber für mich funktionierts ganz gut.

Sie können das auch z.B. mit context7 MCP Server lösen, aber ich habe lieber eigene Skills lokal liegen - das ist deutlich schneller und die Dokumente sind unter meiner Kontrolle.

Bei den kritischen Stimmen, darf ich fragen mit welchen Modellen Ihr eure Annahmen und Aussagen validiert habt ? Es macht einen RIESEN Unterschied ob man freie Versionen, oder alte Modelle verwendet, im Vergleich zu z.B. Opus 4.6. Ich höre hier "muss mir einen Prompt überlegen" und "validieren ob die Antwort korrekt ist" - so läuft das schon lange (also im richtigen Leben seit Monaten) ;-) nicht mehr.

Eine LLM als Google Ersatz zu sehen ist nicht wirklich von großem Nutzen.

Beispiel: nach dem letzten PVE update in der letzten 14 Tagen hat ein Container nicht gestartet.

Prompt : Container 200 startet nicht, analysiere warum ?

Vorgang : Claude versucht den Container zu starten, analysiert die Logs, testet diverse mount Befehle, gibt einen verständlichen Fehlerbericht und einen Vorschlag wie das Problem zu beheben ist (es war eine Regression der neuen PVE Version mit einem am Host gemounteten NFS Share mit Root Squash) - das hätte ich mit Google sicher ebenfalls lösen können, aber ich hätte viel länger dafür benötigt.
Ich würde selbst bei genauester Formulierung einer solch stochastischen Maschine nie den produktiven Betrieb anvertrauen.

Ich bin auch eine stochastische Maschine. Insbesondere wenn etwas nicht geht und mir die User um 5 Uhr früh im Nacken sitzen. Und ich kann jeden Befehl ja rückbestätigen wenn ich das möchte. Oder auch nur invasive Befehle. Siehe oben das vorzügliche CLAUDE.md
Moderne LLM´s befolgen Befehle sehr gut.
Siehe den von mir verlinkten Post von uberspace. Ich halte da einen Hoster (dessen Geschäftsmodell immerhin darauf beruht möglichst viel Traffic für seine Kunden zu verarbeiten) da für glaubwürdiger, als unsere individuelle Erfahrung

Sie wollen also das gleichzeitige scrapen von claudebot mit 5000 IP Adressen die sich um robots.txt nicht scheren mit dem einmaligen scrapen von legitimen content vergleichen ? Das ist ein strawman argument.
Es gibt Studien wonach KI auch Entwickler nicht schneller macht (also messbar nicht schneller), sie glauben es halt nur, weil es halt ein schönes Spielzeug ist.
Es gibt auch Studien die behaupten das der Klimawandel nicht echt ist. Ich kann nur aus eigener Erfahrung anekdotisch sagen, das agentische Arbeitsweise meinen Output vervielfacht hat - und einige Software überhaupt erst ermöglicht hat. Beispielsweise habe ich grade die Firmware einer alten Canon IXUS 870 mit Ghidra deassembliert um daraus eine Webcam zu machen, weil war mir zu schade zum wegwerfen - ein Projekt das ich "zu Fuß" niemals gemacht hätte (zu Zeitaufwändig, und Wissen das ich sonst nirgends verwenden kann - Schreibe sonst keine Software für ARM noch verwende ich Ghidra täglich. Claude hat einen H.264 encoder dafür in C für ARM implementiert der funktioniert, selber den Framebuffer über Spies gefunden, das color mapping korrigiert, etc. etc. - mach das mal als Sideproject an drei Abenden ! Ich würde sagen Claude hat mich hier mindestens um den Faktor 500 schneller gemacht. Ich hätte mich in Ghidra, Ghidra Skripte, ARM, MJPEG, H.264 etc. einlesen müssen. Ich muss Dir aber zustimmen das man zumindest wissen muss was das alles bedeuted - und die Wissenslücken eben bei der LLM hinterfrägt. Das Weltwissen ist nur einen Prompt away, und die LLm kann es auch sofort umsetzen. Einfach phantastisch ! Im Moment dekompiliert Claude mit Ghidra weitere Teile der Firmware um den Hardware MJPEG Encoder endlich zum laufen zu bekommen - die vorhandene ARM CPU schafft per Software Encoder nur ca. 2FPS bei 640x480, a bisserl lahm das Teil.

Ein anderes Beispiel (selbst erlebt) war, wie sich jemand ein Skript von einen LLM hat erstellen lassen um ein Feature zu haben, was eines der vorhandenen Tools schon hatte (über eine entsprechende Option auf der Konsole) und auch in der Hilfe (--help) bzw. manual page dokumentiert war
Ja das kann passieren - weil man eben auch die LLM´s bedienen können muss. Wenn ich vorgebe "baue XY" so macht die LLM das. Wenn ich vorher frei mit der LLM diskutiere, ein Deep Research mache ob es bereits Lösungen für das Problem gibt, etc. dann wäre das vermutlich nicht passiert. Auch diese Fertigkeit muss erlernt werden - ich glaube das reine code monkeys aussterben und das ist auch gut so. Der selbe Student hätte das selbe nutzlose feature auch ohne LLM bauen können. Ich sehe hier nicht die Relevanz. Ich sehe es einfach als neue Abstraktionsebene - so wie wir von Maschinencode über Assembler zu C zu Fortran, Cobol zu whatever gekommen sind. Ich kann sinnvolle Software schreiben ohne Assembler zu beherrschen oder ? Ich mein, es schadet nicht, aber es muss auch nicht sein, Gut - es hilft den vollen Weg vom Transistor / Mosfet / Register / ALU / DMA / Interrupts bis rauf zu Objekten, Lambdas, Functional Programming etc. im Überblick zu kennen aber die Details muss man dann ohnehin nach Jobprofil auffüllen oder ?
Was der gute Mann nicht sieht, aber worauf ihn einer seiner Mitentwickler hingewiesen hat: KI macht es Leuten leichter, die ihren Lebenslauf mit einen Beitrag zum Linux-Kernel aufhübschen wollen, aber eigentlich keine Ahnung haben, irgendeinen Bullshit einzureichen, der dann erstmal aufwändig reviewt werden muss.

Welcher aufwändige Review ? Mein Review Prompt zu einem PR ist kurz und knackig: worum geht es in diesem PR, welche Probleme löst es, passt es ins Gesamtkonzept oder gibt es vorhandene oder bessere Lösungen. Roast the PR relentlessly --- Fertig Arbeit. Probieren Sie es einfach aus, sollten Sie den PR noch haben. - und bitte nicht in ChatGPT, sondern in Opus4.6 oder dem neuesten OpenAi Codex Modell. Im übrigen scheint es mittlerweile sinnvoll zu sein die verwendeten prompts im PR zu inkludieren, um den Entstehungsprozess der immer größer werdenden PR´s zu verstehen und zu redigieren.
Wäre ich ein Lehrender (ich glaube allerdings dazu bin ich gänzlich ungeeignet) würde ich genau das verlangen - weil ich davon ausgehen würde das der Code von LLM´s geschrieben wurde - ich würde das Log der verwendeten Prompts als Anforderung stellen und DIESE benoten. Nicht den Code.

Um zum Ursprung zurückzukommen - ich wäre dankbar wenn Ihr als Proxmox Spezialisten den Skill sobald er fertig ist dann mal ansehen könntet auf einem Testsystem - gerne auch mit kniffligen Fragen.
 
Last edited:
  • Like
Reactions: ThoSo and fba
und vor allem abhängiger
wir stehen alle auf Schultern von Giganten und sind von extrem vielen Dingen abhängig. Schalt mal den Strom oder die Internetleitung ab und schau wie weit Du kommst ;-) Oder versuche ohne Bauern oder Gas und Ölpipelines auszukommen. Natürlich - es ist eine Abhängigkeit mehr, aber Menschen sind anpassungsfähig. Ein reines Optimierungsproblem. Ich versuche einfach das optimale Tool zu verwenden, das ist alles. Steht dieses Tool nicht zur Verfügung, verwende ich ein anderes.
 
  • Like
Reactions: ThoSo and RolandK