Computer und Telekomunikation NEWS

Künstliche Intelligenz reproduziert Vorurteile


Künstliche Intelligenz reproduziert Vorurteile

Laut belgischen Wissenschaftlern könnte das Training mit objektiv richtigem Datenmaterial helfen

KI: Texte spiegeln oft bestehende Vorurteile wider (Foto: pixabay.com, flutie8211)

KI: Texte spiegeln oft bestehende Vorurteile wider (Foto: pixabay.com, flutie8211)

Brüssel/London (pte/28.02.2025/06:05)

In Eigenregie Texte und Bilder erzeugende Künstliche Intelligenz (KI) ist voreingenommen. Sie macht Unterschiede bei Ethnien und Geschlechtern. Dass das technisch bedingt ist, wie manche meinen, bezweifeln Tuba Bircan von der Freien Universität Brüssel (https://www.vub.be/en ) und Mustafa F. Özbilgin von der Brunel University London (https://www.brunel.ac.uk/).

Machtdynamiken prägen die KI

Den Experten nach wird KI vielmehr stark von gesellschaftlichen Machtdynamiken beeinflusst. Sie lerne aus historischen Daten, die von menschlichen Vorurteilen geprägt seien, und absorbiere und verstärke dabei Diskriminierung. "Ein auffälliger Fall ist das KI-gesteuerte Einstellungsinstrument von Amazon, das männliche Bewerber bervorzugt und letztlich die Geschlechter-Ungleichheiten auf dem Arbeitsmarkt verstärkt", so Bircan.

Auch staatliche KI-Betrugserkennungssysteme hätten Familien, insbesondere Migranten, irrtümlich des Betrugs beschuldigt, was für Betroffene schwere Folgen hatte. "Diese Fälle zeigen, wie KI, anstatt Vorurteile zu beseitigen, Diskriminierung verstärken kann, wenn sie nicht kontrolliert wird. Ohne Transparenz und Rechenschaftspflicht besteht die Gefahr, dass KI zum Werkzeug wird, das bestehende soziale Hierarchien verfestigt, statt sie infrage zu stellen", sagt Bircan.

Mehr Transparenz und Inklusivität

Wenn KI-Systeme mit Daten trainiert werden, die gesellschaftliche Vorurteile widerspiegeln, reproduzieren sie Diskriminierung in Bereichen mit hohen Risiken wie Einstellung, Polizeiarbeit und Sozialleistungen. Da KI auf benutzergenerierten Daten basiert, müsse es bei der Gestaltung, Bereitstellung und Regulierung von KI mehr Transparenz und Inklusivität geben. Andernfalls werde KI die digitale Kluft weiter vertiefen und die sozioökonomischen Unterschiede vergrößern.

"Statt die Mängel der KI als unvermeidlich hinzunehmen, setzen wir uns für proaktive Richtlinien und Rahmenbedingungen ein, die sicherstellen, dass die KI der sozialen Gerechtigkeit dient, anstatt sie zu untergraben", verspricht Bircan. Indem Fairness und Verantwortlichkeit von Anfang in die KI eingebettet würden, lasse sich ihr Potenzial für positive Veränderungen nutzen - statt zuzulassen, dass sie systemische Ungleichheiten verstärkt.

 

(Ende)
pressetext.redaktion

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
E-Mail: Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!
Tel.: +43-1-81140-300
Website: www.pressetext.com

Teilen: Twitter


© pressetext.deutschland +++ pressetext.austria +++ pressetext.schweiz +++ fotodienst +++ newsfox.com und der jeweilige Aussender

https://www.pressetext.com/news/20250228002
pte20250228002 | Forschung

Medieninhaber und Herausgeber:
pressetext Nachrichtenagentur GmbH, Josefstädter Straße 44, A-1080 Wien
pressetext ist reichweitenstärkster Nachrichtenverbreiter für Entscheider und Journalisten in der DACH-Region. Die inhaltliche Verantwortung für redaktionelle Meldungen (pte) liegt bei pressetext, für Pressemitteilungen (pts) und Kapitalmarktmitteilungen börsennotierter Unternehmen (pta) beim jeweiligen Aussender. Die Nachrichten werden auf den pressetext-Länderplattformen publiziert und je nach Abonnement-Profil und gewählter Zustellart einzeln oder täglich als Newsletter an die Abonnenten verschickt. Weitere Informationen erhalten Sie bei unserem Redaktionsservice unter Tel. +43-1-81140-300.

 

Star InactiveStar InactiveStar InactiveStar InactiveStar Inactive

KI-Modelle verfälschen menschliche Gefühle


KI-Modelle verfälschen menschliche Gefühle

LLMs wie ChatGPT nehmen Emotionen laut Studie der Warwick Business School inkorrket wahr

KI in Aktion: Gefühle werden oftmals nivelliert (Foto: pixabay.com, Chris_and_Ralph)

KI in Aktion: Gefühle werden oftmals nivelliert (Foto: pixabay.com, Chris_and_Ralph)

Coventry (pte/26.02.2025/12:30)

Fasst ein sogenanntes "Large Language Model" (LLM) wie ChatGPT zusammen, was Menschen zu einem Thema zu sagen haben, kann es hinsichtlich der beteiligten Gefühle zu einem falschen Eindruck kommen. Das ist auch dann der Fall, wenn LLMs die Fakten effizient zusammenfassen. Zu diesem Ergebnis kommt eine Studie der Warwick Business School (https://www.wbs.ac.uk).

LLMs verzerren Daten

Die Studienautoren betonen, dass LLMs in der Forschung zwar eine immer größere Rolle spielen. Diese großen Sprachmodelle sind dabei jedoch kein durchsichtiges Fenster zur Welt, sondern können den Content in einem anderen Ton und mit einem anderen Schwerpunkt als die originalen Daten präsentieren und zusammenfassen. In der Folge kann es zur Verzerrung der Forschungsergebnisse kommen, warnen die Warwick-Experten.

Die Forscher haben einen Datensatz, bestehend aus 18.896.054 Tweets, die den Begriff "Klimawandel" enthielten, mit Tweets verglichen, die von LLMs umformuliert wurden. Die originalen Daten stammten aus dem Zeitraum Januar 2019 bis Dezember 2021. Dabei zeigte sich, dass die von den LLMs erstellten Tweets neutraler waren als die Originale.

Stimmungslage anpassen

Diese emotionale Abstumpfung trat laut den Fachleuten unabhängig von den eingesetzten Prompts oder der Komplexität der LLMs auf. Ein ähnlicher Effekt trat auf, als die Tools ersucht wurden, Kundenrezensionen auf Amazon umzuformulieren. Laut der leitenden Wissenschaftlerin Yi Ding könnten Vorhersagemodelle eingesetzt werde, um die Stimmungslagen rückwirkend wieder anzupassen. Details sind in "PNAS Nexus" veröffentlicht worden.

 

(Ende)
pressetext.redaktion

Aussender: pressetext.redaktion
Ansprechpartner: Moritz Bergmann
E-Mail: Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!
Tel.: +43-1-81140-300
Website: www.pressetext.com

Teilen: Twitter


© pressetext.deutschland +++ pressetext.austria +++ pressetext.schweiz +++ fotodienst +++ newsfox.com und der jeweilige Aussender

https://www.pressetext.com/news/20250226014
pte20250226014 | Forschung

Medieninhaber und Herausgeber:
pressetext Nachrichtenagentur GmbH, Josefstädter Straße 44, A-1080 Wien
pressetext ist reichweitenstärkster Nachrichtenverbreiter für Entscheider und Journalisten in der DACH-Region. Die inhaltliche Verantwortung für redaktionelle Meldungen (pte) liegt bei pressetext, für Pressemitteilungen (pts) und Kapitalmarktmitteilungen börsennotierter Unternehmen (pta) beim jeweiligen Aussender. Die Nachrichten werden auf den pressetext-Länderplattformen publiziert und je nach Abonnement-Profil und gewählter Zustellart einzeln oder täglich als Newsletter an die Abonnenten verschickt. Weitere Informationen erhalten Sie bei unserem Redaktionsservice unter Tel. +43-1-81140-300.

 

Star InactiveStar InactiveStar InactiveStar InactiveStar Inactive

ChatGPT erkennt oft mit KI generierte Bilder


ChatGPT erkennt oft mit KI generierte Bilder

Spezial-Software ist laut University at Buffalo im Vergleich zu LLMs nicht entscheidend besser

Echte Fotos (rechts) und gefälschte Bilder mit Fehlerbeschreibung (Bild: buffalo.edu)

Echte Fotos (rechts) und gefälschte Bilder mit Fehlerbeschreibung (Bild: buffalo.edu)

Buffalo (pte/01.07.2024/06:00)

Forscher der University at Buffalo (https://www.buffalo.edu/) nutzen ChatGPT und Co zur Entlarvung von Bildern, die mithilfe Künstlicher Intelligenz (KI) erstellt wurden. Das Team hat große Sprachmodelle (LLMs) zur Erkennung von Fälschungen menschlicher Gesichter eingesetzt, darunter ChatGPT von OpenAI und Gemini von Google. Ergebnis: Die Leistung von LLMs bleibt hinter jenen von spezialisierten Deepfake-Erkennungsalgorithmen zurück. Da LLMs aber in natürlicher Sprache aufgefordert werden können, ein Bild auf seine Echtheit zu untersuchen, könnten sie zum praktischeren Erkennungs-Tool werden, heißt es.

Spezielles Training entfällt

"Was LLMs von bestehenden Erkennungsmethoden abhebt, ist auch deren Fähigkeit, ihre Ergebnisse auf eine für Menschen verständliche Art und Weise zu erklären, wie die Identifizierung eines falschen Schattens oder eines unpassenden Paares von Ohrringen. LLMs wurden nicht für die Deepfake-Erkennung entwickelt oder trainiert, aber ihr semantisches Wissen hilft ihnen dabei", sagt Forscher Siwei Lyu.

ChatGPT und andere LLMs wurden mit einem Großteil der im Internet verfügbaren Texte - insgesamt etwa 300 Mrd. Wörtern - trainiert und darauf gedrillt, statistische Muster und Beziehungen zwischen Wörtern zu erkennen, um Antworten zu generieren. Die neuesten Versionen können auch Bilder analysieren. Diese multimodalen LLMs sind mithilfe von große Bilddatenbanken mit Beschreibungen trainiert, um Beziehungen zwischen Wörtern und Bildern herzustellen.

Menschen sind das Vorbild

"Der Mensch tut das auch. Wir ordnen Bildern ständig eine semantische Beschreibung zu. Auf diese Weise bekommen Bilder eine eigene Sprache", so Lyus Kollege Shan Jai. Die beiden ließen die LLMs tausende echte und gefälschte Bilder überprüfen. ChatGPT lag in 79,5 Prozent der Fälle richtig. Die Software erläuterte in normaler Sprache, woran sie Fälschungen erkannte. Bei einem KI-generierten Foto eines Mannes mit Brille wies das Modell korrekt darauf hin, dass "die Haare auf der linken Seite des Bildes leicht verschwimmen" und "der Übergang zwischen der Person und dem Hintergrund etwas abrupt ist und es an Tiefe fehlt".

 

(Ende)
pressetext.redaktion

Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
E-Mail: Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!
Tel.: +43-1-81140-300
Website: www.pressetext.com

Teilen: Twitter


© pressetext.deutschland +++ pressetext.austria +++ pressetext.schweiz +++ termindienst +++ fotodienst +++ newsfox.com und der jeweilige Aussender

http://www.pressetext.com/news/20240701001
pte20240701001
Medien/Kommunikation, Technologie/Digitalisierung

Medieninhaber und Herausgeber:
pressetext Nachrichtenagentur GmbH, Josefstädter Straße 44, A-1080 Wien
pressetext ist reichweitenstärkster Nachrichtenverbreiter für Entscheider und Journalisten in der DACH-Region. Die inhaltliche Verantwortung für redaktionelle Meldungen (pte) liegt bei pressetext, für Pressemitteilungen (pts) und Kapitalmarktmitteilungen börsennotierter Unternehmen (pta) beim jeweiligen Aussender. Die Nachrichten werden auf den pressetext-Länderplattformen publiziert und je nach Abonnement-Profil und gewählter Zustellart einzeln oder täglich als Newsletter an die Abonnenten verschickt. Weitere Informationen erhalten Sie bei unserem Redaktionsservice unter Tel. +43-1-81140-300.

 

Star InactiveStar InactiveStar InactiveStar InactiveStar Inactive

Neue chinesche Hackergruppe PlushDaemon geht auf Beutezug


Neue chinesche Hackergruppe PlushDaemon geht auf Beutezug

die Chinesische Hackergruppe PlushDaemon greift Privatnutzer und Unternehmen weltweit an

Jena (pts/22.01.2025/07:15)

Forscher des IT-Sicherheitsherstellers ESET haben eine bislang unbekannte Advanced Persistent Threat (APT)-Gruppe entdeckt: "PlushDaemon" steht in Verbindung mit China und ist seit mindestens 2019 aktiv. Die Hacker führen mit ihrem Hacking-Tool "SlowStepper" ausgeklügelte Cyberspionage-Angriffe auf Windows-Computer durch. Bei ihren Angriffen erbeuteten sie wertvolle Informationen von Privatpersonen und Unternehmen in Ostasien, den USA und Neuseeland.

Schadsoftware kommt als Trittbrettfahrer ins System

PlushDaemon bedient sich verschiedener fieser Tricks, um an Daten zu gelangen. So manipulieren die Hacker legitime Updates verschiedener chinesischer Anwendungen, indem sie den Datenverkehr auf eigene Server umleiten. Die Folge: Nutzer, die ein Update für ihre App herunterladen wollen, erhalten stattdessen die eigens von PlushDaemon erstellten Backdoor SlowStepper. Dabei handelt es sich um eine äußerst vielseitige digitale Hintertür zu den Computern der Betroffenen. Einmal auf einem Gerät aktiv, sammelt sie eine Vielzahl von Daten. Sie kann Informationen aus Webbrowsern abgreifen, Fotos machen und nach Dokumenten suchen. Darüber hinaus sammelt er Daten aus verschiedenen Anwendungen wie Messaging-Apps und stiehlt Passwortinformationen.

"Die Vielzahl der Komponenten von PlushDaemon zeigt, wie ernst diese neue Bedrohung ist", warnt ESET-Forscher Facundo Muñoz, der hinter der Entdeckung von PlushDaemon und SlowStepper steckt. "Außerdem wird die Malware ständig aktualisiert und damit immer gefährlicher."

VPN-Nutzer in Südkorea waren betroffen und wussten nichts davon

Eine weitere Angriffsmethode betrifft Nutzer des in Südkorea beliebten VPN-Dienstes IPany: Die Hackergruppe ersetzte die reguläre Installationsdatei auf der Website des Anbieters durch ein neues Datenpaket. Dieses enthielt neben den legitimen Installationsdateien wiederum die Hintertür.

"Im Mai 2024 entdeckten wir Schadcode in einem Installationsprogramm für Windows, das Nutzer aus Südkorea von der Website der legitimen VPN-Software IPany heruntergeladen hatten. Bei einer tieferen Analyse stellten wir fest, dass der Installer sowohl die legitime Software als auch die Backdoor installierte", erklärt ESET-Forscher Facundo Muñoz, der PlushDaemon und SlowStepper aufgespürt hat. "Wir haben uns mit dem Entwickler der VPN-Software in Verbindung gesetzt, um ihn über die Kompromittierung zu informieren. Der bösartige Installer wurde sofort von der Website entfernt."

Wie es den Hackern gelang, ihr schadhaftes Installationspaket auf die Seite des Anbieters zu bringen, ist bisher nicht bekannt.

Weitere Informationen gibt es im aktuellen Blogpost (https://www.welivesecurity.com/de/eset-research/angriff-der-pluschdamonen)"Angriff der Plüschdämonen" auf Welivesecurity.com.

 

(Ende)
ESET Deutschland GmbH

Aussender: ESET Deutschland GmbH
Ansprechpartner: Philipp Plum
E-Mail: Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!
Tel.: +49 (0) 3641-3114-141
Website: www.eset.de

Teilen: Twitter


© pressetext.deutschland +++ pressetext.austria +++ pressetext.schweiz +++ termindienst +++ fotodienst +++ newsfox.com und der jeweilige Aussender

http://www.pressetext.com/news/20250122005
pts20250122005
Forschung/Entwicklung, Technologie/Digitalisierung

Medieninhaber und Herausgeber:
pressetext Nachrichtenagentur GmbH, Josefstädter Straße 44, A-1080 Wien
pressetext ist reichweitenstärkster Nachrichtenverbreiter für Entscheider und Journalisten in der DACH-Region. Die inhaltliche Verantwortung für redaktionelle Meldungen (pte) liegt bei pressetext, für Pressemitteilungen (pts) und Kapitalmarktmitteilungen börsennotierter Unternehmen (pta) beim jeweiligen Aussender. Die Nachrichten werden auf den pressetext-Länderplattformen publiziert und je nach Abonnement-Profil und gewählter Zustellart einzeln oder täglich als Newsletter an die Abonnenten verschickt. Weitere Informationen erhalten Sie bei unserem Redaktionsservice unter Tel. +43-1-81140-300.

 

Star InactiveStar InactiveStar InactiveStar InactiveStar Inactive

Magenta TV Anmeldung beim ersten Ansturm der Fußballfans zusammengebrochen

als heute die ersten Fußball EM Fans merkten das sie das aktuelle EM Spiel Ungarn / Schweiz

nur auf Magenta TV schauen konnten

und es nirgendwo im Fernsehen lief

wollten sich dann offenbar viele bei Magenta TV anmelden

worauf der Anmelde-Server für lange Zeit nach Spielbeginn zusammen gebrochen war

 

auch eine Direktanmeldung bei Magenta TV mit Bezahlung über Amazon über den Fire TV Stick ging bei mir nicht

 

vielleicht hätten die Telekom Experten da erst einmal bei Amazon im die Lehrstunde gehen sollen,

wie man Spitzenlasten auf verschiedene Server aufteilt

 

da wurde der Ansturm beim Anbieter wohl erheblich unterschätzt

 

die Spannung steigt ob man beim nächsten Spiel nun dann auch mal das Spiel dann dort schauen kann

Star InactiveStar InactiveStar InactiveStar InactiveStar Inactive