Einführung von Einschränkungen / Kennzeichnungspflicht von KI-Beiträgen

Ergänzung:

Obiges wäre per se noch kein Problem, wenn die Leute, die diese KI-Reports generieren, wirklich Ahnung von der Materie hätten. Das Problem ist, dass viele von ihnen eben keine Ahnung haben und einfach nur „Bug Bounties” abgreifen oder aus anderen Gründen Aufmerksamkeit erregen wollen, und dann die KI-Reports ungeprüft in die Issue-Tracker der Projekte ballern.
 
Last edited:
  • Like
Reactions: Johannes S
Ein detaillierter Fehlerreport zu einer theoretischen Schwachstelle, die im konkreten Anwendungsfall gar nicht zum Tragen kommt, weil der Dienst oder die Bibliothek zum Beispiel auf eine ganz bestimmte Weise genutzt oder konfiguriert werden muss, um die Schwachstelle ausnutzen zu können, die im Projekt, das von der LLM geflutet wird, aber nicht gegeben ist, ist am Ende dann halt doch nur sehr detaillierter BS.
Das finde ich ein recht schwaches Argument. Und gefährlich obendrein. Wer garantiert denn, daß die Schwachstelle nicht plötzlich in anderem Zusammenhang dann doch relavant wird.
Niemand.
Und diesen BS auszusortieren kostet die Entwickler extrem viel Zeit.
Na ja, sie können doch sagen, "ist mir zu umständlich, interessiert mich nicht". Dann kann jeder Kunde entscheiden, ob er das auch so sieht. :p
Der Markt wird das schon richten. :)
 
Last edited:
Dann kann jeder Kunde entscheiden, ob er das auch so sieht.
Bei FOSS-Projekten bist du aber nicht „Kunde”, und um die geht es vor allem. Mit kommerziellen Anbietern, vor allem „Big Tech”, habe ich auch eher wenig Mitleid. Das sind in den meisten Fällen dieselben, die KI gross propagieren und/oder solche Dienste bereitstellen. Wenn die dann auch selbst etwas von den negativen Aspekten abbekommen, soll es mir recht sein. ;-)
 
Last edited:
Das finde ich ein recht schwaches Argument. Und gefährlich obendrein. Wer garantiert denn, daß die Schwachstelle nicht plötzlich in anderem Zusammenhang dann doch relavant wird.
Ich bin kein Entwickler, aber die Frage ist meiner Meinung nach falsch herum gestellt.

Meiner Meinung nach müssen diejenigen, die die Schwachstelle melden, zuerst einmal ansatzweise beweisen können, dass es tatsächlich ein Problem gibt.

Und nein damitt meine ich nicht Leute, die einen einfachen Report wie „Hey, du verwendest Komponente XY mit CVE so und so, aktualisiere die doch bitte mal”. Damit meine ich auch nicht Leute, die KI nutzen, um potenzielle Schwachstellen zu finden, und dann zumindest einen gewissen Aufwand betreiben, um zu testen, ob es sich wirklich um eine Schwachstelle handelt. Nicht gemeint sind auch besorgte User, die irgendwo gelesen haben, dass XY eine Schwachstelle hat, und nachfragen wollen, ob das in diesem speziellen Kontext ein Problem ist.

Das Problem sind Leute, die einfach eine LLM über ein Code-Repository laufen lassen, und den Report dann ungeprüft in den Issue-Tracker des Projekts stellen. Ich habe jetzt gerade keinen Link zur Hand, aber viele dieser Reports, z. B. bei Curl, erwiesen sich nicht nur als „in diesem Kontext nicht ausnutzbar”, sondern teilweise auch als kompletter BS mit AI-typischen Halluzinationen.
 
Bei FOSS-Projekten bist du aber nicht „Kunde”
Ja ... ich schon. Ich nutze ja PVE, Linux und die ganzen fancy container.
Anderes Beispiel: KI braucht 15 Minuten für die Lösung, der Anwender ( Entwickler mit 20 Jahren Erfahrung aber ohne Domänenwissen für konkretes Problem ) ist sich nach mehreren Stunden Testen und Prüfen unsicher, ob die auch korrekt ist: https://phpunit.expert/artikel/schneller-als-verstehen.html
Der ist natürlich genau einer von denen, deren Job hochgradig gefährdet ist.
Dafür behandelt er das Thema erfrischend nüchtern.
Und er beschreibt etwas, das mit rasender Geschwindigkeit auf uns zukommt.
Nur ... die Büchse ist jetzt offen.

Es gibt heut schon Mathematiker, also noch echte Menschen, die behaupten, sie hätten ein jahrhundertealtes Problem gelöst oder bewiesen. Und niemand sonst kann das nachvollziehen.
Solche Dinge werden bald deutlich zunehmen mit der KI.
Das Problem sind Leute, ...
Ja, seh ich ein.

Und jetzt?
 
Last edited:
Und jetzt?
Das Zauberwort lautet wie bei jeder Technologie: verantwortungsvoller Umgang.

In der Regel handeln Menschen und vor allem auch die Wirtschaft aber nicht von sich aus verantwortungsvoll. Es werden also gewisse Regulierungen nötig sein. Um bei deinem Autobeispiel zu bleiben: Sicherheitsgurte, ABS etc. wären heute wahrscheinlich immer noch aufpreispflichtige Extras, wenn sie nicht irgendwann gesetzlich vorgeschrieben worden wären.

Dafür wie man KI sinnvoll regeln soll oder kann, habe ich leider auch kein Patenrezept. Einfach „YOLO” zu sagen, scheint mir jedoch etwas fahrlässig. ;)
 
Last edited:
  • Like
Reactions: Johannes S
Das Zauberwort lautet wie bei jeder Technologie: verantwortungsvoller Umgang.
Das definiert ja jeder anders. Manch einer hält womöglich "verbieten" dafür.
Wenn man "Brüssel" und die VdL fragt, rollt's mir die Fußnägel hoch. :mad: Dann kommt so was raus wie "USB C zwangsweise für alle und für alle Zeiten".
Um bei deinem Autobeispiel zu bleiben:
War nicht von mir. :) Aber egal ...
Sicherheitsgurte, ABS etc. wären heute wahrscheinlich immer noch aufpreispflichtige Extras, wenn sie nicht irgendwann gesetzlich vorgeschrieben worden wären.
Das glaub ich nicht. Velohelme z.B. oder beim Skifahren sind fast nirgends vorgeschrieben, aber fast alle tragen sie. Die Vorschriften kommen dann für die paar Letzten und sind eher typisch unnötige Bürokratie.
Einfach „YOLO” zu sagen, scheint mir jedoch etwas fahrlässig.
In meinem Alter rückt das immer mehr in den Vordergrund. :D

Eine wie auch immer geartete "Regulierung" wird sowieso von der Realität fortgespült. Und bedeutet ein weiteres enormes Risiko für den technologischen Untergang Europas. Will man das? :confused:
 
Das glaub ich nicht. Velohelme z.B. oder beim Skifahren sind fast nirgends vorgeschrieben, aber fast alle tragen sie.
Ja, weil sowohl der Staat als auch die Wirtschaft über Jahrzehnte hinweg kräftig dafür geworben haben, da beide ein Interesse daran haben, dass die durch Unfälle entstehenden Kosten niedrig bleiben. Mit einer Helmpflicht per Gesetz wäre es aber deutlich schneller gegangen und auch die letzten Unbelehrbaren hätten jetzt einen auf. Aber ja, da wäre ich auch dagegen, weil man sich mit einem Helm ja vorallem selbst schütztt. ABS im Auto schützt auch andere.

Aber ja, was ich eigentlich sagen wollte, ist, dass damit meiner Meinung nach kein Beweis dafür vorliegt, dass die Leute von sich aus vernünftig sind, sondern es zeigt lediglich, dass Marketing eben doch wirkt, und ist irgendwann eine kritische Masse erreicht, die einen Helm aufhaben, setzt auch der Rest der Herde einen auf. ;)
 
Last edited:
  • Like
Reactions: Johannes S
Nur damit ich das im Verlauf hier nochmal ganz klar sage: Es geht nicht um ein "Verbot" von Einsatz von KI, sondern ausschließlich um das Posten von vollständig durch KI generierten Beiträge.
 
Ja ... ich schon. Ich nutze ja PVE, Linux und die ganzen fancy container.
Und weil du es nutzt bist du Kunde? Um was für fancy Container oder Linux geht es denn, dass du das gekauft hast bzw. da wirklich Kunde bist.
 
um das Posten von vollständig durch KI generierten Beiträge.
Ja, das Problem ist, wo man die Grenze zieht und ob man es immer korrekt erkennt. Selbst wenn man es erkennt, zählt imho am Schluss, was effektiv an Informationen vorhanden ist, ob es Hand und Fuss hat, ob es hilfreich ist usw. Das sollten die Kriterien sein.

Offensichtlichen Slop sollte man moderieren. Den gab es aber auch früher schon, da nannte man das Spam oder „low effort” Posts. Das Gleiche gilt für Falschinformationen, unabhängig davon, ob diese Posts via KI generiert wurden oder nicht.

Woher die Leute ihre Informationen letztlich haben, die sie mit mehr oder weniger KI-Unterstützung hier reinpasten, weiss man letztendlich sowieso nicht. Und da muss man sich sicher keine Illusionen machen. Das Genie ist aus der Flasche raus, und es wird in Zukunft Threads geben, in denen nur noch AI miteinander redet (gibt es wahrscheinlich jetzt schon, zumindest indirekt, wenn jeder ChatGPT oder Claude fragt, bevor er seine Fragen und Antworten hier postet). Solange jedoch noch ein Mensch involviert ist, der die Chat-Bots bedient und bei Bedarf die Antworten anpasst, bevor er sie postet, ist das in meinen Augen in Ordnung – sofern die obigen Kriterien bezüglich des Inhalts erfüllt sind, auch wenn Anpassungen rein über Prompting entstanden sind... "Hey chat GPT, mach mal die Emojis und de Em dashes weg!" ;)

Was nicht geht meiner Meinung nach, ist, einen Post hier zu kopieren, in einen Chatbot zu pasten und dann die erste Antwort einfach 1:1 hier hereinzupasten. Noch nicht, aber irgendwann wird man auch das immer weniger erkennen, denn die KI wird noch besser werden. Aber das wäre dann der Punkt, an dem man keine Foren mehr braucht. Das wird aber noch dauern. :-)
 
Last edited:
  • Like
Reactions: Johannes S