Rebellische KI: Wenn Sprachmodelle nicht abgeschaltet werden wollen | heise online
https://heise.de/-10419264 #KI #Sprachmodelle #Funktionsweise #Abschaltung
Rebellische KI: Wenn Sprachmodelle nicht abgeschaltet werden wollen | heise online
https://heise.de/-10419264 #KI #Sprachmodelle #Funktionsweise #Abschaltung
#KIMissbrauch
Wenn #Sprachmodelle plötzlich menschenverachtende Aussagen treffen oder gefährliche Tipps geben, läuft etwas gewaltig schief.
Eine aktuelle Untersuchung zeigt, wie schnell #Feintuning unerwartete Folgen haben kann – mit brisanten Konsequenzen für reale Anwendungen.
Das Phänomen wurde nur durch Zufall entdeckt.
Mit #GPT4All kan man sich ohne langes Gefrickel lokale #Sprachmodelle auf den Laptop holen, offline. Was man damit so anstellen kann, habe ich im neusten Online-Recherche Newsletter aufgeschrieben.
https://sebmeineck.substack.com/i/160694890/gptall-lokale-sprachmodelle-ohne-hurden
#KINews #Retröt
#ChatGPT und andere #Sprachmodelle können normalerweise nicht direkt Buchstaben zählen. Obwohl man zwar #Textlängen begrenzen kann, ist das Ergebnis nie exakt. Das manuelle Zählen über ChatGPT ist aufwendig und ineffizient für professionelle Anwendungen. Alternativen zum Zählen sind Programmiersprachen, die genauer und kostengünstiger arbeiten.
#Tokens #Buchstabenzählen #KünstlicheIntelligenz #GenAI #SoftwareLösungen #KI
Israel entwickelt ChatGPT-ähnliches Tool, das die Überwachung von Palästinensern zu einem Mittel der Kriegsführung macht
Die israelische Armee erstellt ein KI-Sprachmodell, das Millionen abgefangener Gespräche zwischen Palästinensern verwendet und den Prozess der Anklage und Verhaftung beschleunigen könnte, wie eine gemeinsame Untersuchung zeigt.
Die israelische #Armee entwickelt ein neues, #ChatGPT-ähnliches KI-Tool und trainiert es mit Millionen arabischer Gespräche, die durch die #Überwachung von Palästinensern in den besetzten Gebieten gewonnen wurden, wie eine Untersuchung des +972 Magazine, Local Call und des Guardian aufdecken konnte.
Das KI-Tool, das unter der #Schirmherrschaft von Unit 8200, einer #Eliteeinheit für #Cyberkriegsführung innerhalb des israelischen #Militärgeheimdienstes, entwickelt wird, ist ein sogenanntes Large Language Model (#LLM): ein maschinelles #Lernprogramm, das in der Lage ist, Informationen zu analysieren und Texte zu generieren, zu übersetzen, vorherzusagen und zusammenzufassen. Während öffentlich zugängliche LLMs, wie die Engine hinter ChatGPT, mit Informationen aus dem Internet trainiert werden, wird das neue Modell, das von der israelischen Armee entwickelt wird, mit riesigen Mengen an Informationen gefüttert, die über das #Alltagsleben der unter #Besatzung lebenden #Palästinenser gesammelt wurden.
Die Existenz des LLM der Einheit 8200 wurde gegenüber +972, Local Call, und dem Guardian von drei israelischen #Sicherheitsquellen bestätigt, die über die Entwicklung des Modells informiert sind. Das Modell wurde in der zweiten Hälfte des vergangenen Jahres noch trainiert, und es ist unklar, ob es bereits eingesetzt wurde oder wie genau die Armee es einsetzen wird. Quellen erklärten jedoch, dass ein entscheidender Vorteil für die #Armee in der Fähigkeit des #Tools bestehen wird, große Mengen an #Überwachungsmaterial schnell zu verarbeiten, um „Fragen zu bestimmten Personen zu beantworten“. Wenn man bedenkt, wie die Armee bereits kleinere #Sprachmodelle einsetzt, ist es wahrscheinlich, dass das LLM die #Beschuldigung und #Verhaftung von Palästinensern durch #Israel weiter ausweiten könnte.
„KI verstärkt die Macht“, erklärte eine #Geheimdienstquelle, die die Entwicklung von Sprachmodellen durch die israelische Armee in den letzten Jahren genau verfolgt hat. “Sie ermöglicht Operationen, bei denen die Daten von weitaus mehr Menschen genutzt werden, und ermöglicht so die Kontrolle der Bevölkerung. Dabei geht es nicht nur darum, Schussangriffe zu verhindern. Ich kann #Menschenrechtsaktivisten aufspüren. Ich kann den palästinensischen Bau in der Zone C [im Westjordanland] überwachen. Ich habe mehr Möglichkeiten, um zu wissen, was jede Person im #Westjordanland tut. Wenn man so viele Daten hat, kann man sie für jeden beliebigen Zweck einsetzen.“
Die Entwicklung des Tools fand zwar vor dem aktuellen #Krieg statt, aber unsere Untersuchung ergab, dass die Einheit 8200 nach dem 7. Oktober israelische #Staatsbürger mit Fachkenntnissen in der Entwicklung von Sprachmodellen um Hilfe bat, die bei #Technologiegiganten wie #Google, #Meta und #Microsoft arbeiteten. Mit der #Massenmobilisierung von #Reservisten zu Beginn des israelischen Angriffs auf #Gaza begannen Branchenexperten aus dem #Privatsektor, sich der Einheit anzuschließen – und brachten Wissen ein, das zuvor „nur einer sehr exklusiven Gruppe von Unternehmen weltweit zugänglich war“, wie eine Sicherheitsquelle angab. (Als Antwort auf unsere Anfragen gab Google an, dass es „Mitarbeiter hat, die in verschiedenen Ländern Reservedienst leisten“, und betonte, dass die Arbeit, die sie in diesem Zusammenhang leisten, „nicht mit Google in Verbindung steht“. Meta und Microsoft lehnten eine Stellungnahme ab.)
Laut einer Quelle wurde der #Chatbot der #Unit8200 mit 100 Milliarden Wörtern #Arabisch trainiert, die zum Teil durch die groß angelegte #Überwachung von Palästinensern durch das israelische #Militär gewonnen wurden – was Experten zufolge eine schwere Verletzung der palästinensischen Rechte darstellt. „Wir sprechen hier von hochpersönlichen Informationen, die von Menschen stammen, die keiner Straftat verdächtigt werden, um ein Tool zu trainieren, das später dazu beitragen könnte, einen Verdacht zu begründen“, sagte Zach #Campbell, leitender #Technologieforscher bei Human Rights Watch, gegenüber @972mag #LocalCall und dem Guardian.
(...)
Weiterlesen in der Analyse von Yuval Abraham, Jerusalem und Harry Davies vom Guardian und Sebastian Ben Daniel (John Brown)
Das +972Magazine steigt unerschrocken ins Dunkel KI-getriebener Kriegsführung hinab. Nachdem sie schon #Palantir|s System #Lavender enthüllt haben, sind jetzt #Sprachmodelle dran, die aus der Masse abgehörter Kommunikation automatisiert Listen derer erstellen, die als nächstes verhaftet werden sollen. Und wenn das System mal wieder "halluziniert"? Darüber hat man als Betroffener dann ganz viel Zeit nachzudenken. Oder auch nie wieder.
https://www.972mag.com/israeli-intelligence-chatgpt-8200-surveillance-ai/
Wie erfolgreich die großen #Sprachmodelle, auf die Bots wie #ChatGPT zurückgreifen, beim Spielen sind, haben die Computerlinguisten Prof. Dr. @davidschlangen und Dr. Sherzod Hakimov von der Uni Potsdam gemeinsam mit einem Team von Studierenden erforscht. Mehr Infos: https://www.uni-potsdam.de/de/medieninformationen/detail/2025-03-06-mensch-gegen-chatgpt-was-gesellschaftsspiele-ueber-die-zukunft-der-ki-verraten
Man kann diese #Systeme sicher noch gut überlisten, weil sie noch nicht #kreativ "denken" können, wie #Menschen das tun. Eigentlich sind sie #strohdumm, weil sie nur #vergleichen können. Es gibt aber schon erhebliche #Verbesserungen mancher #Sprachmodelle. Die #Entwicklung geht rasend schnell. Die #Chinesen werden in #Führung gehen, auch weil ihre #Unis mehr auf #Wettbewerb ausgerichtet sind. Das zeigt gerade #DeepSeek.
Apple Intelligence: Komplizierte Genehmigungsverfahren in China
Apple steht vor großen Herausforderungen bei der Einführung von Apple Intelligence in China. Laut einem Bericht der Financial Times erschwert ein strenger und langwieriger Genehmigungsprozess die Markteinführung.
https://www.apfeltalk.de/magazin/news/apple-intelligence-komplizierte-genehmigungsverfahren-in-china/
#News #Services #Apple #AppleIntelligence #Baidu #China #Huawei #KI #Regulierungen #Siri #Sprachmodelle #TimCook
OpenAI gewinnt erste Runde im Urheberrechtsstreit gegen Raw Story
OpenAI konnte im Rechtsstreit gegen Raw Story und AlterNet einen ersten Erfolg erzielen. Die KI-Firma steht mehreren Klagen gegenüber, weil sie urheberrechtlich geschützte Inhalte zum Trainin
https://www.apfeltalk.de/magazin/news/openai-gewinnt-erste-runde-im-urheberrechtsstreit-gegen-raw-story/
#News #Tellerrand #AlterNet #Copyright #DMCA #Gerichtsurteil #KITechnologie #Klage #OpenAI #RawStory #Sprachmodelle #Urheberrecht
Apple treibt die KI-Branche mit neuen Open-Source-Modellen voran
Apple hat zwei neue, leistungsstarke Sprachmodelle veröffentlicht. Diese Modelle sollen Entwickler:innen und Unternehmen weltweit zugutekommen und zeigen, wie Apple kompakte, aber
https://www.apfeltalk.de/magazin/news/apple-treibt-die-ki-branche-mit-neuen-open-source-modellen-voran/
#KI #News #AIModelle #Apple #DataComp #Innovation #KIForschung #KnstlicheIntelligenz #MachineLearning #OpenSource #Sprachmodelle #Technologie
Ersatz durch Sprachmodelle: Welche Jobs besonders betroffen sein könnten | heise online
https://heise.de/-9771245 #Sprachmodelle #LLMs #ChatGPT
Das #KI-Unternehmen #Anthropic hat den Start der #iOS-#App #Claude bekanntgegeben, die Usern einen einfacheren Zugang zum Konversationsagenten über das #iPhone ermöglicht. Ähnlich wie #ChatGPT von #OpenAI verarbeitet der #Chatbot viele Textdaten, um menschenähnliche Antworten zu verstehen und zu generieren. Claude basiert auf Techniken des maschinellen Lernens einschließlich großer #Sprachmodelle (#LLM).
Mehr zum Thema: https://www.appgefahren.de/?p=357362
Apple entwickelt neue KI-Werkzeuge, um mit Microsoft zu konkurrieren
In einem kürzlich von Bloomberg veröffentlichten Bericht wurde bekannt, dass Apple an der Fertigstellung eines entscheidenden neuen Softwarewerkzeugs für App-Entwick
https://www.apfeltalk.de/magazin/news/apple-entwickelt-neue-ki-werkzeuge-um-mit-microsoft-zu-konkurrieren/
#News #Services #KnstlicheIntelligenz #Xcode #iPadOS #GitHubCopilot #GenerativeKI #Sprachmodelle #Softwareentwicklung #Apple #Programmierwerkzeug #iOS
ChatGPT: Der Chatbot mit Bauchgefühl.
Ein spannender Artikel von @evawolfangel über Forschungsergebnisse von unserem Kollege Thilo Hagendorff am IRIS der @Uni_Stuttgart
https://www.zeit.de/digital/2023-10/chatgpt-ki-sprachmodelle-intuition-intelligenz/komplettansicht
Wie speichern KI-Sprachmodelle Daten und enthalten diese Modelle auch personenbezogene Daten?
Daten werden von KI-Sprachmodellen in Form von Zahlenkolonnen gespeichert.
Wie genau das funktioniert und warum dadurch die Intelligenzfunktion des Menschen entschlüsselt wird, diskutiere ich im Beitrag.
Sind im KI-Modell nach dem Training personenbezogene oder gar urheberrechtlich geschützte Daten vorhanden?