Bundesgesundheitsminister Lauterbach sieht die Datennutzung im Medizinbereich als alternativlos. KI-Modelle will er dafür "mit synthetischen Daten durchspülen".
Damit die Daten der Versicherten nicht gefährdet werden, will Lauterbach die KI-Systeme “mit synthetischen Daten durchspülen […] wie eine neue Heizung, die man sich kauft”.
Ja Scheiße, Bernd! Wieso sind wir da nicht selber draufgekommen!
Das sollten wir auch mit anderen Dingen tun. Haben Sie Ihre Firewall schon durchgespült?
Warum nicht ein Business draus machen? Der Bankkontendurchspülservice! Hey, die meisten Webforen könnten mal eine Tiefenreinigung brauchen. Bei Facebook, Twitter und co reicht wahrscheinlich Durchspülen nicht, da bräuchte man eine Hochdruckreinigung.
Ich bin dann mal kurz weg, das Blog hier durchspülen.
Fefe ist ein Horst und stellt sich künstlich doof.
Er weiß 1000% was ein Integration-Test ist und dass man InfoSec-/Pentests am besten mit synthetischen Daten anstatt mit echten durchführt.
Er weiß auch, dass Politiker solche Dinge anschaulich formulieren müssen.
Wieso sind wir da nicht selber draufgekommen!
Ja warum ist eigentlich die deutsche IT so ein Treppenwitz, fefe? Warum bildet das einzige “Flagschiff” SAP hierzulande eine ganz eigene Treppenwitzkategorie?
Wieso macht es Code Blau nicht einfach mal besser und baut eine gute, dezentrale, sichere Patientenakte? Oder Behörden-IT oder Strafzettel-Apps oder flächendeckende authentifizierung mit ePA usw usw? Die Ausschreibungen sind doch öffentlich?
Weil er ein armchair Infrastrukturexperte ist, so eine süffisante Formulierung das Selbstwertgefühl steigert und natürlich alles eine super “Medienkompetenzübung” ist.
In der Praxis sind gatling, dietlibc & co. aber halt doch nicht mehr als Laborexperimente, die nie die “Serienreife” für Produktivbetrieb geschafft haben. Warum wohl…
Ich stimme dir bei allem zu, aber woher kriegt Lauterbach so einen mächtigen Integrationstest für ein Konstrukt (große Sprachmodelle und ähnliche KIs), deren Indeterminismus ja die Herausforderung ist?
Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren und dann die generierten Ausgaben testen wollen, dann muss man ja beweisen können, dass man jede Kombination bedacht hat. Es reicht ja nicht, einfach nur die Ausgabequalität zu erhöhen, was ja das ist wofür solche Test für LLMs geschrieben werden.
aber woher kriegt Lauterbach so einen mächtigen Integrationstest
Es reicht, wenn das in Ausschreibungstexten oder Verordnungen steht.
Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren
Du stellst dir das zu kompliziert vor. Man trainiert nicht nur ein Modell, man testet ALLES komplett. Also z.B. auch die Datenweitergabe in die USA. Wenn dann jemand am anderen Ende private/geheime synthetische Daten extrahieren kann, ist nichts wichtiges verloren.
Abgesehen davon weiß momentan vermutlich kaum jemand, was konkret geplant ist. Dafür muss man vermutlich noch auf Konkretes warten. Das war ja nur eine Ankündigung bisher.
Ich rede hier über die KI selbst und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht. Und da ist das Testen weder trivial noch lange nicht vollständig gelöst. Es einfach zu fordern hilft da wenig.
Daher muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren. Entsprechend muss auch die Verantwortung für und Transparenz über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.
Die Welt wäre so viel besser wenn niemand mehr FEFE aufmerksamkeit schenken würde. Der Typ labert so oft so reaktionäre kacke. aber hauptsache über irgendwas aufregen weil man selbst mal irgendwas mit IT gemacht hat.
Zu seinen Gunsten: In InfoSec dingen hat er schlicht recht. Aber das Gejammer allein bringt halt auch nichts. Und IT-Politisch kann man es ihm anscheinend nie recht machen.
In Sachen Politik war es in den nuller-Jahren oft ganz amüsant, fefe mit einem ordentlichen Augenzwinkern zu lesen. Aber heute wirkt das was ich noch so mitkriege, als hätte er in seiner Blase schlicht den Knall nicht gehört.
In Zeiten von Tatsachenverdrehungen und zersetzender Propaganda, ist seine “Medienkompetenzübung” schlicht auf ganzer Länge gescheitert.
Damit meint er, dass die Systeme mit dummy daten auf Datensicherheit geprüft werden sollen. Also ein Testbetrieb, der momentan so gut wie nie in der fertigen Integration stattfindet.
So kann man vorher schon prüfen, ob irgendwo doch noch private/deanonymisierbare Daten leaken, ohne dass es - wie in der Vergangenheit - echte Daten sind.
Klingt für mich erstmal wie sinnvolle Anwendung von vorhandener best-practice.
Klingt, als ob er einen Haufen Dummy Daten reingeben will.
Zum Training ist das Schrott und beschädigt das Model.
Für Ergebnisse ist es einfach sinnlos.
Relevant ist unter anderem, ob der Anbieter vertrauenswürdig ist und wie weit man die Daten anonymisieren kann.
Bei Gesundheitsdaten dürfte da trotzdem für jeden ein eindeutiger Fußabdruck entstehen.
Klingt, als ob er einen Haufen Dummy Daten reingeben will.
Zum Training ist das Schrott und beschädigt das Model.
Für Ergebnisse ist es einfach sinnlos.
So habe ich es eben auch verstanden. Mir ist der Sinn dahinter nicht so ganz klar… Aber wäre ja auch komisch, wenn ein journalistischer Artikel mal tiefer auf solche Dinge eingehen würde.
So wie ich das verstanden habe (aber natürlich keinerlei Garantie dass das wirklich so gemeint war, insgesamt halt ein bisschen ein Schrottartikel) ist, wie auch andere hier schon vermutet haben, dass es nicht um‘s Training geht sondern einen Testbetrieb. Haufenweise Fake-Daten rein und dann schauen ob die nicht ungewollt an anderer Stelle sichtbar werden.
Eine Verschlüsselung ist im “Neusprech” nur sicher, wenn die Regierung (oder wer auch immer im Auftrag) die Verschlüsselung umgehen kann.
Und eine KI mit synthetischen Daten durchzuspülen ist sehr, sagen wir mal, interessant.
Fefes Kommentar dazu:
Fefe ist ein Horst und stellt sich künstlich doof.
Er weiß 1000% was ein Integration-Test ist und dass man InfoSec-/Pentests am besten mit synthetischen Daten anstatt mit echten durchführt.
Er weiß auch, dass Politiker solche Dinge anschaulich formulieren müssen.
Ja warum ist eigentlich die deutsche IT so ein Treppenwitz, fefe? Warum bildet das einzige “Flagschiff” SAP hierzulande eine ganz eigene Treppenwitzkategorie?
Wieso macht es Code Blau nicht einfach mal besser und baut eine gute, dezentrale, sichere Patientenakte? Oder Behörden-IT oder Strafzettel-Apps oder flächendeckende authentifizierung mit ePA usw usw? Die Ausschreibungen sind doch öffentlich?
Weil er ein armchair Infrastrukturexperte ist, so eine süffisante Formulierung das Selbstwertgefühl steigert und natürlich alles eine super “Medienkompetenzübung” ist.
In der Praxis sind gatling, dietlibc & co. aber halt doch nicht mehr als Laborexperimente, die nie die “Serienreife” für Produktivbetrieb geschafft haben. Warum wohl…
Ich stimme dir bei allem zu, aber woher kriegt Lauterbach so einen mächtigen Integrationstest für ein Konstrukt (große Sprachmodelle und ähnliche KIs), deren Indeterminismus ja die Herausforderung ist?
Wenn die jetzt erst einmal mit synthetischen Daten ein Model trainieren und dann die generierten Ausgaben testen wollen, dann muss man ja beweisen können, dass man jede Kombination bedacht hat. Es reicht ja nicht, einfach nur die Ausgabequalität zu erhöhen, was ja das ist wofür solche Test für LLMs geschrieben werden.
Es reicht, wenn das in Ausschreibungstexten oder Verordnungen steht.
Du stellst dir das zu kompliziert vor. Man trainiert nicht nur ein Modell, man testet ALLES komplett. Also z.B. auch die Datenweitergabe in die USA. Wenn dann jemand am anderen Ende private/geheime synthetische Daten extrahieren kann, ist nichts wichtiges verloren.
Abgesehen davon weiß momentan vermutlich kaum jemand, was konkret geplant ist. Dafür muss man vermutlich noch auf Konkretes warten. Das war ja nur eine Ankündigung bisher.
Ich rede hier über die KI selbst und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht. Und da ist das Testen weder trivial noch lange nicht vollständig gelöst. Es einfach zu fordern hilft da wenig.
Daher muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren. Entsprechend muss auch die Verantwortung für und Transparenz über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.
Das ist aber das einzig relevante. Ein Modell selbst enthält nie wirklich schützenswerte Daten im Sinne des Datenschutz.
Deswegen wird vorher getestet. Aber mit synthetischen Daten.
Da bin ich voll bei dir. Wird auch gemacht soweit das technisch machbar und sinnvoll ist.
Was würdest du vorschlagen, was über die EU Initiative hinaus geht?
Die Welt wäre so viel besser wenn niemand mehr FEFE aufmerksamkeit schenken würde. Der Typ labert so oft so reaktionäre kacke. aber hauptsache über irgendwas aufregen weil man selbst mal irgendwas mit IT gemacht hat.
Zu seinen Gunsten: In InfoSec dingen hat er schlicht recht. Aber das Gejammer allein bringt halt auch nichts. Und IT-Politisch kann man es ihm anscheinend nie recht machen.
In Sachen Politik war es in den nuller-Jahren oft ganz amüsant, fefe mit einem ordentlichen Augenzwinkern zu lesen. Aber heute wirkt das was ich noch so mitkriege, als hätte er in seiner Blase schlicht den Knall nicht gehört.
In Zeiten von Tatsachenverdrehungen und zersetzender Propaganda, ist seine “Medienkompetenzübung” schlicht auf ganzer Länge gescheitert.
Ich verstehe sowieso überhaupt erstmal gar nicht, was er mit “durchspülen” meint. Wie sieht die Praxis dahinter aus und wie soll das helfen?
Damit meint er, dass die Systeme mit dummy daten auf Datensicherheit geprüft werden sollen. Also ein Testbetrieb, der momentan so gut wie nie in der fertigen Integration stattfindet.
So kann man vorher schon prüfen, ob irgendwo doch noch private/deanonymisierbare Daten leaken, ohne dass es - wie in der Vergangenheit - echte Daten sind.
Klingt für mich erstmal wie sinnvolle Anwendung von vorhandener best-practice.
Klingt, als ob er einen Haufen Dummy Daten reingeben will.
Zum Training ist das Schrott und beschädigt das Model.
Für Ergebnisse ist es einfach sinnlos.
Relevant ist unter anderem, ob der Anbieter vertrauenswürdig ist und wie weit man die Daten anonymisieren kann. Bei Gesundheitsdaten dürfte da trotzdem für jeden ein eindeutiger Fußabdruck entstehen.
So habe ich es eben auch verstanden. Mir ist der Sinn dahinter nicht so ganz klar… Aber wäre ja auch komisch, wenn ein journalistischer Artikel mal tiefer auf solche Dinge eingehen würde.
So wie ich das verstanden habe (aber natürlich keinerlei Garantie dass das wirklich so gemeint war, insgesamt halt ein bisschen ein Schrottartikel) ist, wie auch andere hier schon vermutet haben, dass es nicht um‘s Training geht sondern einen Testbetrieb. Haufenweise Fake-Daten rein und dann schauen ob die nicht ungewollt an anderer Stelle sichtbar werden.
Wer eine KI „durchspült“ trinkt auch energetisiertes Wasser um seinen Körper zu „entschlacken“.