Bundesgesundheitsminister Lauterbach sieht die Datennutzung im Medizinbereich als alternativlos. KI-Modelle will er dafür "mit synthetischen Daten durchspülen".
Fefe ist ein Horst und stellt sich künstlich doof.
Er weiß 1000% was ein Integration-Test ist und dass man InfoSec-/Pentests am besten mit synthetischen Daten anstatt mit echten durchführt.
Er weiß auch, dass Politiker solche Dinge anschaulich formulieren müssen.
Wieso sind wir da nicht selber draufgekommen!
Ja warum ist eigentlich die deutsche IT so ein Treppenwitz, fefe? Warum bildet das einzige “Flagschiff” SAP hierzulande eine ganz eigene Treppenwitzkategorie?
Wieso macht es Code Blau nicht einfach mal besser und baut eine gute, dezentrale, sichere Patientenakte? Oder Behörden-IT oder Strafzettel-Apps oder flächendeckende authentifizierung mit ePA usw usw? Die Ausschreibungen sind doch öffentlich?
Weil er ein armchair Infrastrukturexperte ist, so eine süffisante Formulierung das Selbstwertgefühl steigert und natürlich alles eine super “Medienkompetenzübung” ist.
In der Praxis sind gatling, dietlibc & co. aber halt doch nicht mehr als Laborexperimente, die nie die “Serienreife” für Produktivbetrieb geschafft haben. Warum wohl…
Die Welt wäre so viel besser wenn niemand mehr FEFE aufmerksamkeit schenken würde. Der Typ labert so oft so reaktionäre kacke. aber hauptsache über irgendwas aufregen weil man selbst mal irgendwas mit IT gemacht hat.
Zu seinen Gunsten: In InfoSec dingen hat er schlicht recht. Aber das Gejammer allein bringt halt auch nichts. Und IT-Politisch kann man es ihm anscheinend nie recht machen.
In Sachen Politik war es in den nuller-Jahren oft ganz amüsant, fefe mit einem ordentlichen Augenzwinkern zu lesen. Aber heute wirkt das was ich noch so mitkriege, als hätte er in seiner Blase schlicht den Knall nicht gehört.
In Zeiten von Tatsachenverdrehungen und zersetzender Propaganda, ist seine “Medienkompetenzübung” schlicht auf ganzer Länge gescheitert.
Ich stimme dir bei allem zu, aber woher kriegt Lauterbach so einen mächtigen Integrationstest für ein Konstrukt (große Sprachmodelle und ähnliche KIs), deren Indeterminismus ja die Herausforderung ist?
Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren und dann die generierten Ausgaben testen wollen, dann muss man ja beweisen können, dass man jede Kombination bedacht hat. Es reicht ja nicht, einfach nur die Ausgabequalität zu erhöhen, was ja das ist wofür solche Test für LLMs geschrieben werden.
aber woher kriegt Lauterbach so einen mächtigen Integrationstest
Es reicht, wenn das in Ausschreibungstexten oder Verordnungen steht.
Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren
Du stellst dir das zu kompliziert vor. Man trainiert nicht nur ein Modell, man testet ALLES komplett. Also z.B. auch die Datenweitergabe in die USA. Wenn dann jemand am anderen Ende private/geheime synthetische Daten extrahieren kann, ist nichts wichtiges verloren.
Abgesehen davon weiß momentan vermutlich kaum jemand, was konkret geplant ist. Dafür muss man vermutlich noch auf Konkretes warten. Das war ja nur eine Ankündigung bisher.
Ich rede hier über die KI selbst und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht. Und da ist das Testen weder trivial noch lange nicht vollständig gelöst. Es einfach zu fordern hilft da wenig.
Daher muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren. Entsprechend muss auch die Verantwortung für und Transparenz über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.
Fefe ist ein Horst und stellt sich künstlich doof.
Er weiß 1000% was ein Integration-Test ist und dass man InfoSec-/Pentests am besten mit synthetischen Daten anstatt mit echten durchführt.
Er weiß auch, dass Politiker solche Dinge anschaulich formulieren müssen.
Ja warum ist eigentlich die deutsche IT so ein Treppenwitz, fefe? Warum bildet das einzige “Flagschiff” SAP hierzulande eine ganz eigene Treppenwitzkategorie?
Wieso macht es Code Blau nicht einfach mal besser und baut eine gute, dezentrale, sichere Patientenakte? Oder Behörden-IT oder Strafzettel-Apps oder flächendeckende authentifizierung mit ePA usw usw? Die Ausschreibungen sind doch öffentlich?
Weil er ein armchair Infrastrukturexperte ist, so eine süffisante Formulierung das Selbstwertgefühl steigert und natürlich alles eine super “Medienkompetenzübung” ist.
In der Praxis sind gatling, dietlibc & co. aber halt doch nicht mehr als Laborexperimente, die nie die “Serienreife” für Produktivbetrieb geschafft haben. Warum wohl…
Die Welt wäre so viel besser wenn niemand mehr FEFE aufmerksamkeit schenken würde. Der Typ labert so oft so reaktionäre kacke. aber hauptsache über irgendwas aufregen weil man selbst mal irgendwas mit IT gemacht hat.
Zu seinen Gunsten: In InfoSec dingen hat er schlicht recht. Aber das Gejammer allein bringt halt auch nichts. Und IT-Politisch kann man es ihm anscheinend nie recht machen.
In Sachen Politik war es in den nuller-Jahren oft ganz amüsant, fefe mit einem ordentlichen Augenzwinkern zu lesen. Aber heute wirkt das was ich noch so mitkriege, als hätte er in seiner Blase schlicht den Knall nicht gehört.
In Zeiten von Tatsachenverdrehungen und zersetzender Propaganda, ist seine “Medienkompetenzübung” schlicht auf ganzer Länge gescheitert.
Ich stimme dir bei allem zu, aber woher kriegt Lauterbach so einen mächtigen Integrationstest für ein Konstrukt (große Sprachmodelle und ähnliche KIs), deren Indeterminismus ja die Herausforderung ist?
Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren und dann die generierten Ausgaben testen wollen, dann muss man ja beweisen können, dass man jede Kombination bedacht hat. Es reicht ja nicht, einfach nur die Ausgabequalität zu erhöhen, was ja das ist wofür solche Test für LLMs geschrieben werden.
Es reicht, wenn das in Ausschreibungstexten oder Verordnungen steht.
Du stellst dir das zu kompliziert vor. Man trainiert nicht nur ein Modell, man testet ALLES komplett. Also z.B. auch die Datenweitergabe in die USA. Wenn dann jemand am anderen Ende private/geheime synthetische Daten extrahieren kann, ist nichts wichtiges verloren.
Abgesehen davon weiß momentan vermutlich kaum jemand, was konkret geplant ist. Dafür muss man vermutlich noch auf Konkretes warten. Das war ja nur eine Ankündigung bisher.
Ich rede hier über die KI selbst und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht. Und da ist das Testen weder trivial noch lange nicht vollständig gelöst. Es einfach zu fordern hilft da wenig.
Daher muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren. Entsprechend muss auch die Verantwortung für und Transparenz über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.
Das ist aber das einzig relevante. Ein Modell selbst enthält nie wirklich schützenswerte Daten im Sinne des Datenschutz.
Deswegen wird vorher getestet. Aber mit synthetischen Daten.
Da bin ich voll bei dir. Wird auch gemacht soweit das technisch machbar und sinnvoll ist.
Was würdest du vorschlagen, was über die EU Initiative hinaus geht?