Es würde mich nicht wundern, wenn man auch in den USA und Europa irgendwelche Schlupflöcher gefunden hätte, um trotz Widerspruch zur Datennutzung KI-Modelle mit öffentlichen Posts zu trainieren. Oder man tut es einfach und es kommt erst spääter raus. Wie auch mit der Geschichte zu Cambridge Analytica.
Als Nutzer kann man, wenn man das nicht möchte, nur auf zwei Arten kontern. Die eine wäre schlicht ein Boycott. Die andere hingegen wäre schon wesentlich interessanter. Wenn man das Training solcher Modelle mit den eigenen Daten nicht aufhalten kann, kann man sie auch unbrauchbar machen, indem man regelrecht Nonsens postet. Sätze, die keinen Sinn ergeben. Damit sich das auswirkt, muss man aber Facebook regelrecht damit zuspammen und es müssen über viele Nutzerkonten hinweg möglichst dieselben Kombinationen von Worten gepostet werden, damit deren Modell denkt, das wäre tatsächlich statistisch relevantes Zeug. Koordinieren ließe sich das über ein Addon, das alle paar Minuten einen neuen Unsinnspost abruft, den man dann per Knopfdruck selbst posten kannn. Extrapunkte gibt es, wenn man Satzteile älterer Nonsens-Sätze wiederverwendet, um dem Modell eine kohärente Grammatik vorzugaukeln.
Oder tl;dr: Wenn ein Großteil der Nutzer "Lorem Ipsum Dolor Sit Amet..." postet, wird das Modell irgendwann denken, das wäre ein echter Satz.
Wobei ich eher für Kombinationen aus echten Wörtern und Fantasiewörtern wäre. Von Buchstabensalat würde ich abraten, da man den filtern kann.