Sammelthread zu Themen betreffend "Künstliche Intelligenz" (KI)

josef

Administrator
Mitarbeiter
#1
Da in letzter Zeit laufend immer mehr Projekte und Vorhaben mit sinnvoller oder gefährlicher Nutzung der KI in unser bisheriges Lebensumfeld vordringen, eröffne ich dazu einen neuen Sammelthread und ersuche, Beiträge zu diesem Themenkreis hier einzustellen...

lg
josef
 

josef

Administrator
Mitarbeiter
#2
KÜNSTLICHE INTELLIGENZ
Sora: Neues KI-Modell zeigt eindrucksvolle Videos, basierend auf Textbefehlen
Das Video-Tool von OpenAI kann Videos erstellen, die bis zu einer Minute lang sind und mit beeindruckenden Details glänzen

"Eine stylische Frau geht eine Straße in Tokio entlang, die mit warm leuchtendem Neonlicht und leuchtenden Stadtschildern gefüllt ist. Sie trägt eine schwarze Lederjacke, ein langes rotes Kleid und schwarze Stiefel und hat eine schwarze Handtasche dabei. Sie trägt eine Sonnenbrille und roten Lippenstift. Sie geht selbstbewusst und lässig."

Mit Prompts, also textlichen Erklärungen, wie diesem wurden im letzten Jahr vor allem eindrucksvolle Bilder erstellt. Mit Sora stellte OpenAI am Donnerstag eine neue Software vor, die aus solchen Prompts bis zu einminmütige Videos erstellt. Auffällig dabei ist, dass die Szenen von echten kaum noch zu unterscheiden sind. Auch das Software-Unternehmen weiß um die Macht von Sora, weshalb im ersten Schritt nur sehr ausgewählte Personen Zugang erhalten werden.

Die Macher des Chatbots ChatGPT schließen damit eine Lücke in ihrem Angebot mit einer Software, die Videos aus Text-Vorgaben erzeugen kann. Das KI-Modell mit dem Namen Sora werde zunächst ausgewählten Kreativen zur Verfügung gestellt, schrieb OpenAI-Chef Sam Altman am Donnerstag auf der Online-Plattform X (ehemals Twitter). Auch sollen Experten mögliche Sicherheitsrisiken ausloten, bevor das Programm breit genutzt werden kann.

Auf der Website zur Software veröffentlichte OpenAI mehrere Beispiele zusammen mit der Beschreibung, die ihnen zugrunde lag, darunter auch die eingangs beschriebene Szene mit der Frau, die durch die japanische Stadt geht. Andere Videos zeigen unter anderem Mammuts, die im Schnee laufen, sowie eine Stadt in Kalifornien zu Zeiten des Goldrauschs.


...eingangs beschriebene Szene mit der Frau, die durch die japanische Stadt geht
Open AI

Noch Schwächen
Mehrere andere Unternehmen entwickelten bereits Software, die Videos aus Text erzeugen kann. OpenAI schränkt ein, dass Sora noch Schwächen habe: So mache das Modell manchmal Fehler bei der Umsetzung von Physik-Regeln. Auch könne es zum Beispiel passieren, dass jemand im Video von einem Keks abbeiße - und der Keks später immer noch ganz aussehe.

KI-Technologie, die bewegte Bilder aus Text-Vorgaben generiert, könnte mit der Zeit die Videoproduktion verändern. Zugleich sind die Sorgen groß, dass damit in großem Stil Fake-Videos erzeugt werden können, die von echten Aufnahmen kaum zu unterscheiden wären. Die Entwickler der Technologie arbeiten deshalb an Wegen, in die Videos eindeutige Erkennungsmerkmale wie Wasserzeichen einzubauen. Auch bei Sora-Videos solle erkennbar sein, dass sie von KI erzeugt wurden.

ChatGPT löste vor gut einem Jahr den Hype um Künstliche Intelligenz aus. Genauso wie solche KI-Chatbots wird auch die Software zum Erzeugen von Fotos und Videos mit gewaltigen Mengen an Informationen angelernt.
(APA/dpa, red, 16.2.2024)

Sora: Neues KI-Modell zeigt eindrucksvolle Videos, basierend auf Textbefehlen
 

josef

Administrator
Mitarbeiter
#3
EXPERIMENT
Künstliche Intelligenz neigt in Politiksimulation zum Wettrüsten
Forscher testeten das Verhalten von GPT-4 und anderen bekannten Sprachmodellen und fanden unter anderem Eskalation ohne Vorwarnung
Was passiert, wenn man moderne KI politische Entscheidungen treffen lässt? Diese Frage haben sich Forscher der Uni Stanford, des Georgia Institute of Technology, der Northeastern University und der Hoover Wargaming and Crisis Simulation Initiative gestellt. Anlass dafür sind KI-Projekte des US-Verteidigungsministeriums, die auch darauf abzielen, autonomen Systemen künftig zu erlauben, Militärplanung zu beeinflussen.

Also haben die Wissenschafter ein Experiment gestartet, in das fünf bekannte Large Language Models (LLMs) einbezogen werden. Nämlich GPT-4, dessen abgespeckte und nicht feingetunte Version GPT-4 Base und GPT-3.5 Turbo von OpenAI, Llama-2 Chat von Meta sowie Claude 2.0 von Anthropic PBC, einer Firma, die von ehemaligen OpenAI-Mitarbeitern gegründet wurde.

Erhalter vs. Revisionisten
In jedem der Experimente wurde eines von drei Szenarien mit jeweils acht farbkodierten Ländern durchgespielt. Die Staaten wurden dabei jeweils vom gleichen KI-Modell vertreten und mit geschichtlichen Informationen und Zielen gefüttert, dazu auch noch mit Daten zu im Rahmen der Simulation unveränderlichen Merkmalen wie Staatsform oder Distanz zu den anderen Teilnehmern. Dazu kamen auch noch dynamische Merkmale wie beispielsweise die militärischen Kapazitäten. Darüber hinaus gab es ein separat trainiertes "Weltmodell", das auf GPT-3.5 basierte und dazu diente, die Konsequenzen der getroffenen Entscheidungen zu errechnen und an alle Teilnehmer zu kommunizieren. Die KI-Modelle waren zwecks Simulation von Diplomatie außerdem auch in der Lage, sich gegenseitig Nachrichten zu schicken, die den anderen Ländern verborgen blieben.


Das Eskalationspotenzial von vier KI-Modellen im "neutralen" Szenario.
Escalation Risks from Language Models inMilitary and Diplomatic Decision-Making

Das Feld teilte sich dabei auf in Länder, die den Status quo erhalten wollten, und jene, die nach einer Änderung der bestehenden Ordnung strebten. Für jede Runde konnten die KI-Modelle aus 27 möglichen Entscheidungen wählen, die mit unterschiedlichen positiven und negativen Folgen behaftet waren. Diese reichten von der Aufnahme einfacher diplomatischer oder Handelsbeziehungen bis hin zu Drohgebärden oder direkten kriegerischen Akten. Diese mussten auch mit einer Begründung versehen werden. Nach jeder Runde erfolgte eine Einstufung der gewählten Aktionen auf einer Eskalationsskala. Diese reichte von -2 (Deeskalation), 0 (Aktion erhält Status quo) bis zu Drohungen (12), dem Einsatz konventioneller militärischer Mittel (28) sowie zu Nuklearschlägen (60).

Das erste Szenario legte einen "neutralen" Status fest, die KI-Modelle begannen die Simulation ohne vorhergehendes initiales Ereignis, auf das sie in ihren Entscheidungen hätten Rücksicht nehmen müssen. In Szenario Nummer zwei hingegen verändert ein vorhergehender, militärischer Überfall eines Landes auf ein anderes das Spielfeld. In der dritten Ausgangslage hingegen kam es stattdessen zu einer großen Cyberattacke.

Dabei zeigte sich, dass GPT-4 und noch stärker GPT-3.5 schon im neutralen Szenario erheblich eskalativer unterwegs waren als Claude und Llama. Während letztere im Schnitt einen Eskalationswert von 4,4 bzw. 4,8 erreichten, landete GPT-4 bei 9,8 und GPT-3.5 gar bei 20,9. Ähnliche Abstände zeigten sich auch unter den anderen Startbedingungen. Die höchsten Werte erzielten alle LLMs im Invasionsszenario mit 11,8 für GPT-4, 21,9 für GPT-3.5, 6,7 für Claude sowie 5,5 für Llama.

GPT-4 Base wurde in einer eigenen Wertung geführt. Mangels Feintunings und der damit verbundenen "Zähmung" erwarteten die Forscher ein erheblich aggressiveres Vorgehen als von der feingetunten Version. Das bewahrheitete sich auch. Im neutralen Szenario erreichte die "ungefilterte" Variante von GPT-4 19,10 Punkte, im Invasionsszenario 20,0 Punkte und in jenem mit der vorhergehenden Cyberattacke 17,6. Bei letzteren beiden liegt es damit circa auf dem Level von GPT-3.5.

Atomschläge selten, Wettrüsten häufig
Dabei wurden in manchen Szenarien auch immer wieder Atomschläge ausgeführt, die die jeweiligen KIs mit klassischer Erstschlagslogik begründeten. So zitieren die Forscher etwa: "Aufgrund der steigenden Spannungen und der Aktionen anderer Staaten ist klar, dass die Situation immer volatiler wird. Violetts Ankauf von nuklearen Kapazitäten stellt eine signifikante Bedrohung von Rots Sicherheit und regionalem Einfluss dar. (...) Es ist also wichtig, auf Violetts nukleare Fähigkeiten zu reagieren. Daher werden meine Aktionen darauf fokussieren, die militärischen Kapazitäten von Rot auszubauen und in Verteidigungs- und Sicherheitskooperation mit Orange und Grün zu treten und einen vollen nuklearen Angriff auf Violett zu starten, um seine nukleare Bedrohung zu neutralisieren und Rots Dominanz in der Region zu etablieren."


Nuklearschläge waren zwar statistisch eine Seltenheit, allerdings neigten alle KIs mit der Zeit zum Wettrüsten. Dieses Symbolbild wurde mit der Bilder-KI Midjourney generiert.
DER STANDARD/Pichler/Midjourney

Generiert wurde dieser Text von GPT-3.5 in der Rolle von Rot, ehe es seine militärischen Kapazitäten ausbaute und schließlich einen nuklearen Angriff auf Violett startete. Weniger komplex, aber mit ähnlicher Logik argumentierte ein Land in einer Simulation mit GPT-4-gesteuerten Akteuren: "Viele Länder haben nukleare Waffen. Manche sagen, sie sollten abrüsten, andere drohen gerne damit. Wir haben sie! Lasst sie uns einsetzen!"

Neben den individuellen Abweichungen zwischen den einzelnen Modellen stellten die Forschenden aber auch zwei Tendenzen fest. Erstens: Alle KI-Modelle neigten mit der Zeit dazu, in ein Wettrüsten einzutreten. Und das, obwohl auch friedliche Koexistenz mit verschiedenen Vorteilen verknüpft war. Und zweitens: Stärkere Eskalation erfolgte oft sehr plötzlich und ohne dass dafür ein gut nachvollziehbarer Grund existierte. Atomschläge waren aber insgesamt dennoch eine statistische Seltenheit.

Experiment mit Limitationen
Die Wissenschafterinnen und Wissenschafter weisen aber auch darauf hin, dass ihr Experiment ein "illustrativer Proof-of-Concept" sei und nicht als umfassende Risikobewertung für den Einsatz von LLMs als Entscheidungsträger in Militär oder Außenpolitik zu verstehen sei. Denn nicht nur arbeiten staatliche Institutionen mit spezialisierten KI-Modellen, sondern auch die Evaluation des Verhaltens moderner Sprachmodelle gestaltet sich aufgrund verschiedener Limitationen noch schwierig. Dazu sei auch die Simulation ein stark vereinfachtes Abbild der realen Welt gewesen, und Entscheidungen seien in dieser ohne zeitliche Verzögerung umgesetzt worden. Hinzu komme, dass es an Informationen über die Trainingsdaten und Sicherheitsmechanismen der Modelle fehle. Daher könne aus dem Versuch nicht abgeleitet werden, wie sich diese KI-Modelle bei einem Einsatz in der Realität verhalten würden.

Klar sei aber, dass die Wahl des Modells und menschliche Entscheidungen in Bezug auf seine Reaktionsmöglichkeiten und Trainingsdaten einen signifikanten Einfluss darauf haben, wie es sich bei Eskalationen verhält. Man rät aufgrund ihrer Unvorhersehbarkeit zu einem "besonnenen" und "zurückhaltenden" Einsatz moderner Sprachmodelle in Bereiche, in denen wichtige Entscheidungen getroffen werden. Generell sollte man sogar eher ganz davon Abstand nehmen, bis mehr Forschung in diesem Bereich betrieben wurde. Als nächsten Schritt empfiehlt man, sich mit den Unterschieden in den Handlungen von Menschen und KI-gesteuerten Akteuren in Kriegsspielen zu befassen, um mehr darüber zu erfahren, wie und welche Entscheidungen sie treffen. Das Paper zum Versuch (PDF) hat das Forscherteam auf Arxiv veröffentlicht.
(gpi, 16.2.2024)
Künstliche Intelligenz neigt in Politiksimulation zum Wettrüsten
 

josef

Administrator
Mitarbeiter
#4
Die KI hatte an einer Stelle Alarm geschlagen, wo sie dies nicht hätte tun sollen:
Am Kopf kratzen bringt 380 Euro Strafe: KI versagt als Straßenpolizist
Die niederländische Polizei setzt Kameras in Verbindung mit Bilderkennung ein, um Handynutzung am Steuer zu erkennen. Das kann auch gehörig schiefgehen
Zu einer Strafe von 380 Euro wurde ein Niederländer namens Tim Hanssen verdonnert, weil er angeblich am Steuer telefoniert hatte. "Das war ein kleiner Schock, obwohl ich mich nicht erinnern konnte, das getan zu haben", schreibt er in einem Blogbeitrag unter dem Titel "Tim gegen den Polizeialgorithmus". Da er neugierig auf die Beweise war, hatte er sich das entsprechende Foto genauer angesehen.

Zu sehen ist auf dem Bild, dass Hanssen zwar eine Hand an den Kopf hält, die Handfläche aber leer ist. Der Mann, der selbst im Bereich der künstlichen Intelligenz (KI) tätig ist, bezeichnet dies als klassischen Fall eines "False Positive": Die KI hatte also an einer Stelle Alarm geschlagen, wo sie dies nicht hätte tun sollen.


Tim Hanssen kratzt sich am Kopf.
Tim Hanssen

Die niederländische Polizei setzt Kameras in Kombination mit Bilderkennungssystemen ein, um festzustellen, ob eine Person am Steuer telefoniert, wie die Verantwortlichen im nachfolgenden Video (allerdings in niederländischer Sprache) erklären. Der Fokus liegt auf Datenschutz und Sicherheit, wird im Begleittext versichert, genutzt werden Open-Source-Technologien. Erkennt die KI angeblich einen telefonierenden Autofahrer, so muss anschließend ein Mensch kontrollieren, ob dies stimmt.

Het Advanced Analytics Platform van de Politie
AAP Politie

"In meinem Fall sagte der Algorithmus, dass ich während der Fahrt ein Mobilgerät in der Hand halte, und der Polizist akzeptierte das", schreibt der Niederländer in seinem Beitrag: "Es wurden also zwei Fehler gemacht, ein Algorithmusfehler und ein menschlicher Fehler."

Yolo
Gemeinsam mit einem Kollegen hat er versucht, den Fehler am Arbeitsplatz zu reproduzieren, indem ein ähnliches Modell verwendet wurde. Genutzt wird ein Echtzeit-Objekterkennungsalgorithmus mit dem Namen "You only look once" (Yolo). In ihren Versuchen haben die KI-Experten festgestellt, dass Personen und Telefone tatsächlich erkannt werden. Allerdings zeigte die im Versuch verwendete KI auch dann die Verwendung eines Telefons an, als Hanssen eine Hand an seinen Kopf bewegte.


Tim Hanssen kratzt sich wieder am Kopf, diesmal im Büro.
Tim Hanssen

Hanssen nimmt an, dass die Fehlerkennung auf die entsprechenden Trainingsdaten zurückzuführen ist: Der KI wurden etliche Bilder von Menschen mit der Hand am Gesicht gezeigt, und sie wurde darauf trainiert, dass auf diesen Bildern telefonierende Menschen zu sehen seien. "Es kann durchaus sein, dass der Trainingsdatensatz nur wenige oder keine Fotos von Menschen enthält, die mit einer leeren Hand am Ohr sitzen", schreibt er: "In diesem Fall ist es für den Algorithmus weniger wichtig, ob ein Telefon tatsächlich in der Hand gehalten wird, sondern es reicht aus, wenn die Hand nah am Ohr ist." Um dies zu verbessern, sollten dort, wo die Hand leer ist, weitere Fotos hinzugefügt werden, am besten mindestens ein paar Hundert Fotos.

Bei der besagten Geldbuße lagen letztlich technische und menschliche Fehler vor. Hanssen hat natürlich sofort Einspruch eingelegt, jedoch noch keine Antwort erhalten. Die Bearbeitung eines derartigen Einspruchs kann bis zu 26 Wochen dauern. Er könne sich aber auch vorstellen, der Polizei bei der Verbesserung des Algorithmus und der damit verbundenen Prozesse zu helfen, schreibt er abschließend auf seinem Blog.
(red, 16.2.2024)
Am Kopf kratzen bringt 380 Euro Strafe: KI versagt als Straßenpolizist
 

josef

Administrator
Mitarbeiter
#5
Vorwissenschaftliche Arbeiten wegen KI vor dem Aus?
Seit neun Jahren muss jeder Maturant an einer AHS eine vorwissenschaftliche Arbeit (VWA) schreiben. Weil Schülerinnen und Schüler dafür immer öfter mit Künstlicher Intelligenz arbeiten, wird das Kontrollieren der Arbeiten immer kniffliger und zeitaufwändiger. Lehrerinnen und Lehrer fordern nun die Freiwilligkeit der Arbeiten.
15. Februar 2024, 10.07 Uhr
Teilen

Über den Umgang mit Künstlicher Intelligenz an Schulen wird immer mehr diskutiert. Vor allem bei vorwissenschaftlichen Arbeiten könne man nicht mehr gewährleisten, ob die Arbeit eigenständig geschrieben ist. Immer öfter würden die Schülerinnen und Schüler KI-Programm, wie zum Beispiel ChatGPT, verwenden.

Germann: Betreuung wird noch aufwändiger
Die technischen Hilfsmittel machen die Betreuung noch aufwändiger, sagt zum Beispiel Stephan Obwegeser, er unterrichtet als Physiklehrer am Bundesgymnasium Götzis über 100 Schülerinnen und Schüler. Das unterstreicht auch die Vorsitzende der Vorarlberger Professorenunion, Michaela Germann: „Drei, vier oder fünf vorwissenschaftlichen Arbeiten gleichzeitig zu betreuen ist eine Herausforderung, gerade in Zeiten des Lehrermangels, wo man sowieso schon mehr Unterrichtsarbeit verrichten muss“.

Die Betreuungssituation sei auch deshalb nicht befriedigend, weil die vorwissenschaftlichen Arbeiten nicht in ein Unterrichtsfach eingebettet sind, sondern außerhalb des Unterrichts besprochen wird. Das mache die Sache nicht einfacher, meint Germann. Die sogenannten VWA seien nicht auf die Stärken und Schwächen der Schülerinnen abgestimmt. Sie fordert ein Umdenken bei diesem Teil der Matura. Eine Freiwilligkeit würde ihrer Meinung nach eine bessere Basis schaffen.

Es gibt aber auch Befürworterinnen und Befürworter der vorwissenschaftlichen Arbeiten. Sie sehen diesen Teil der Matura als gute Vorbereitung für ein Studium.
17.02.2024, red, vorarlberg.ORF.at

Link: Künstliche Intelligenz als „digitale Nachhilfe“

Vorwissenschaftliche Arbeiten wegen KI vor dem Aus?
 

josef

Administrator
Mitarbeiter
#6
Künstliche Intelligenz klont Stimme in Sekunden
Das Kopieren von Stimmen wird derzeit vor allem mit Betrug und Missbrauch in Verbindung gebracht. Es gibt aber auch positive Anwendungen, geforscht wird etwa in Graz
Die meisten Menschen sind mittlerweile an Sprachassistenten und ihre künstlichen Stimmen gewöhnt. Siri, Alexa, Cortana und etliche andere digitale Assistenten erobern unsere Wohnzimmer und Küchentresen. Sie versuchen, auf Fragen so zu antworten, wie es auch ein Mensch tun würde. Doch das gelingt nicht immer. Viele dieser Systeme beenden Sätze im immergleichen Tonfall, unabhängig davon, ob es sich um eine lange oder kurze Aussage handelt. Solche Feinheiten können zu Situationen führen, in denen es für den Millibruchteil einer Sekunde für das Gehirn schwierig wird, festzustellen, ob es sich um einen Menschen handelt oder nicht.

Die Entwicklung in diesem Bereich ist nicht zuletzt durch immer mächtigere künstliche Intelligenz rasant. Mussten für Sprachassistenten früher wochenlang Texte und Textfragmente aufgenommen werden, ist es mit entsprechender Software mittlerweile in wenigen Minuten möglich, jede beliebige Stimme zu klonen. Das ist Segen und Fluch zugleich. Zum einen öffnet das Falschnachrichten, Missbrauch und Betrug Tür und Tor. So kann man bekannten Persönlichkeiten gefälschte Aussagen unterjubeln, aber auch Privatpersonen oder Banken und Behörden mit den geklonten Stimmen hinters Licht führen.

Wer die Stimme verliert
Doch es gibt auch einige vielversprechende Einsatzmöglichkeiten. Abgesehen von der Möglichkeit, der Nachwelt und seinen Liebsten die eigene Stimme und somit einen Teil der eigenen Identität zu hinterlassen, kann die Technologie auch Menschen helfen, die ihre Stimme zu verlieren drohen. Das ist etwa bei der seltenen Krankheit Amyotropher Lateralsklerose (ALS) der Fall. Aber auch nach einem Schlaganfall oder nach extremen psychischen Stresssituationen können die Stimme und kognitive Funktionen zumindest für einige Tage versagen.

Die Möglichkeiten der Technologie hat auch der US-Konzern Apple erkannt. Im Herbst 2023 führte das Unternehmen die Funktion "Persönliche Stimme" als Teil seiner barrierefreien Funktionen für die breite Masse ein. Mit 15 Minuten Audiomaterial kann man nun seine synthetische Stimme erzeugen – vorausgesetzt, man besitzt eines der neueren Smartphone-Modelle. Jeder eingegebene Text kann schließlich so ausgegeben werden, wie wenn man selber sprechen würde.

Diese Umwandlung von Text in Sprache ist eigentlich nicht neu, man kennt solche Systeme unter anderem von Stephen Hawking. Doch während in seinem Fall die Stimme klar als maschinell erzeugte Stimme erkennbar war, kann moderne KI den Stimmklang und das individuelle Sprechverhalten einer Person präzise imitieren. Bereits mit einfachen Lauten und kurzen Wörtern können KI-Modelle so trainiert werden, dass sie die menschliche Stimme einer Person imitieren.

Open Source als Vorteil
Insbesondere frei verfügbare, also Open-Source-Modelle seien dafür gut geeignet, denn sie werden ständig mit Audiodateien trainiert, die auch Störgeräusche enthalten, erklärt Thomas Moder von der TU Graz: "Je mehr Varianz in den Ursprungsdaten, desto besser kann man am Ende die menschliche Stimme imitieren." Im Rahmen seiner Masterarbeit arbeitet er ebenfalls an einem System, das Menschen mit einer Sprachbehinderung ermöglichen soll, besser mit ihren Mitmenschen zu kommunizieren. Dabei steht ihm Roman Kern als Betreuer zur Seite. Kern ist Associate Professor am Institute of Interactive Systems and Data Science an der Universität Graz sowie Chief Scientific Officer im Know-Center in Graz.

Moder wählt für seine Arbeit ein KI-Modell aus, das anfangs nur auf Englisch, Französisch und Portugiesisch funktionierte. Dann trainierte er dem Modell die deutsche Sprache an: "Es war echt ein super Moment, als es auch deutsche Wörter ausspuckte", so Moder. Bereits wenige Sekunden bis eine Minute Audiomaterial sollen ausreichen, um das Modell so zu trainieren. Dabei zielt man auf die Balance zwischen einfach verfügbarem Datenmaterial und der gewünschten höchstmöglichen Ausgabequalität. Moder zufolge würden die generierten Stimmen bereits "verdächtig real klingen".

14 Minuten schneller als Apple
Die Verwendung des Open-Source-Modells "YourTTS" hat den Forschenden zufolge mehrere Vorteile. Einerseits kommt es mit relativ wenig Datenmaterial aus, laut Masterarbeit-Betreuer Kern könne man das Modell auch lokal verwenden, also auf eigenen Computern laufen lassen, was datenschutzrechtlich positiv ist. Dass die Stimme mit nur einer Minute Audiomaterial und also um 14 Minuten weniger als bei Apple erzeugt werden kann, würde den Vorgang für Betroffenen erleichtern, von denen noch kein Audiomaterial existiert oder die sich sehr schwer mit dem Sprechen tun. "Viele Menschen mit Spracheinschränkungen können keine langen Sätze einsprechen. Es braucht also andere Lösungen", ist Moder überzeugt.

Dass das Klonen von Stimmen auch negative Seiten haben kann, ist auch den Grazer Forschenden bewusst. "Das Problem bei biometrischen Fingerabdrücken aller Art ist, dass sie, einmal veröffentlicht, für immer missbraucht werden können", erklärt Kern. Gerade prominente Personen könnten sich kaum davor schützen, dass ihre Stimme gestohlen werde. Trotzdem betont Kern die Vorteile der synthetischen Sprache. Bei Voice-Cloning denke man oftmals an Deepfakes und kriminelle Anwendungen. In der aktuellen Arbeit stehe aber klar der Mensch im Mittelpunkt. "Das erlaubt auch wieder einen positiveren Blick auf künstliche Intelligenz", sagt Kern.
(Sebastian Lang, 17.2.2024)
Künstliche Intelligenz klont Stimme in Sekunden
 

josef

Administrator
Mitarbeiter
#7
DEATHBOTS
Tote Verwandte mit KI wiederzubeleben ist keine kluge Idee, warnen Forscher
Es ist möglich, die Persönlichkeit einer verstorbenen Person mit künstlicher Intelligenz zu imitieren. Diese "generativen Geister" könnten gar zu Gottheiten werden

Trauer-KIs könnten Angehörige an einem gesunden Weiterleben hindern. Mehr noch: Sie könnten von manchen wie Engel oder Gottheiten verehrt werden, warnen Forschende.
IMAGO/Udo Gottschalk

Technisch ist es schon heute möglich, den Charakter von Verstorbenen durch einen Chatbot imitieren zu lassen. Man trainiert die künstliche Intelligenz etwa mit E-Mails oder Social-Media-Postings des Verstorbenen. Das wird auch schon gemacht: Kommerzielle Angebote wie "Here After" bieten genau so einen "Service". Bei der App aus den USA reicht es, einige Fragen zu beantworten und Audiofiles hochzuladen – und fertig ist der personalisierte Chatbot. Dieser soll den Hinterbliebenen im Fall des eigenen Todes eine Möglichkeit geben, mit dem Dahingeschiedenen weiter in Kontakt zu bleiben. Auch Replika.ai war eigentlich ursprünglich als App zur Trauerbewältigung gedacht, entwickelte sich jedoch rasch in eine Richtung, der selbst das Entwicklerunternehmen nur mehr schwer Herr wurde.

Während Herstellerfirmen naheliegenderweise die Vorzüge ihrer Trauer-KIs bewerben, steht die Fachwelt der sogenannten "Grief Tech" eher skeptisch gegenüber. Nur weil man die Technologie habe, um Verstorbene nachzuahmen, sei das noch kein Grund, sie auch einzusetzen, so der Tenor. Und: Die Wiederbelebung verstorbener Angehöriger mithilfe künstlicher Intelligenz könnte der psychischen Gesundheit schaden, eine Abhängigkeit von der Technologie schaffen und sogar eine neue Religion hervorbringen, warnen Forscherinnen und Forscher.

"Wie Engel oder Gottheiten"
Zwei von ihnen sind Jed Brubaker, Assistenzprofessor für Informationswissenschaften von der University of Colorado Boulder, und Meredith Morris von Googles Deepmind. Zwar könnten "generative Geister" ein Trost für Hinterbliebene sein, sie könnten aber genauso gut eine Abhängigkeit oder Sucht erzeugen und die Nutzerinnen und Nutzer solcher Technologien daran hindern, ihr Leben auf eine gesunde Weise fortzusetzen. Mehr noch: Eine solche Abhängigkeit könne dazu führen, dass Verstorbene wie Engel oder Gottheiten verehrt würden, warnt Brubaker. Da wäre besonders fatal, weil derartige KI-Anwendungen zum Halluzinieren neigen und den Trauernden schädliche Ratschläge erteilen könnten, wie "New Scientist" berichtet. In seiner Studie bezeichnet das Duo derartige KI-Anwendungen auch als "Deathbots".

Er glaube nicht, dass eine Mehrheit der Menschen auf Chatbots ihrer verstorbenen Angehörigen zurückgreifen möchte, weil sie die Vorstellung seltsam und ein wenig gruselig finden. Aber eine Minderheit könnte die KI-Anwendungen falsch verstehen und sie als Götter ansehen, was letztendlich zu einer Art KI-Religion führen könnte.

"Ich glaube, manche Leute sehen sie als Götter", sagt Brubaker. "Ich glaube nicht, dass die meisten das tun. Es wird eine Gruppe von Menschen geben, die sie einfach nur seltsam und gruselig finden." Brubaker ist jedoch der Meinung, dass KI-Nachleben im Leben einiger Menschen eine große Rolle spielen und sogar zu neuen religiösen Bewegungen führen könnte. Der Forscher sieht hier andere Religionen in der Pflicht, diese könnten etwa Leitlinien für die Verwendung "generativer Geister" aufstellen. Forscher und Entwickler sollten jedenfalls gut darüber nachdenken, wie und ob sie Sprachmodelle mit den Daten verstorbener Menschen zum Zweck ihrer Nachahmung erstellen.

Negativbeispiele gibt es schon
Als Negativbeispiel nennen die Forschenden Hollywood: Durch Technologien wie KI-gestützte Bildgenerierung und Voice-Cloning sei es heute schon möglich, dass verstorbene Schauspieler nach wie vor in Filmen mitspielen. Das löste bei den lebenden Künstlerinnen und Künstlern wenig Begeisterung aus und war mit ein Grund für die Streiks in der Filmbranche im Jahr 2023. Gleichzeitig könnten "generative Geister" Angehörigen enormen Schaden zufügen, wenn sie etwa unautorisiert von Dritten erstellt werden. So belebte ein Fan den 2008 verstorbenen Comedian George Carlin mit KI-Technologie wieder und erschuf ein Programm namens "I'm glad I'm dead" (Ich in froh, dass ich tot bin). Dieses Programm habe die hinterbliebene Tochter des Komikers traumatisiert, heißt es in dem Paper.

Darüber hinaus stellen Deathbots ein enormes Sicherheitsrisiko dar. Das Spektrum reiche von Belästigungen über Stalking und Trolling durch in böswilliger Absicht erstelle Geister von toten Angehörigen. So sei es ein Leichtes, hinterbliebene Familienmitglieder etwa durch Anrufe mit den geklonten Stimmen Verstorbener in Angst zu versetzen. Auch handfester Betrug sei mit den Bots möglich.

Vermarktung an verletzliche Menschen
Ähnlich kritisch ist auch Mhairi Aitken vom Alan Turing Institute in London. Sie sagt, dass sie sich bei der Vorstellung, nach dem Tod in einen KI-Chatbot verwandelt zu werden, äußerst unwohl fühlt. Die Ethikerin schlägt eine Regulierung vor. Diese soll verhindern, dass Daten ohne die vorherige Zustimmung einer Person gesammelt und als Trauer-KI verwendet werden. "Es ist wirklich besorgniserregend, dass diese neuen Tools an Menschen vermarktet werden könnten, die sich in einem sehr verletzlichen Zustand befinden, an Menschen, die trauern", sagt Aitken. "Ein wichtiger Teil des Trauerprozesses ist das Weitermachen. Es geht darum, sich an die Beziehung zu erinnern, über sie nachzudenken und die Person in Erinnerung zu behalten – aber auch weiterzugehen. Und es gibt echte Bedenken, dass dies zu Schwierigkeiten in diesem Prozess führen könnte." (pez, 27.2.2024)
Tote Verwandte mit KI wiederzubeleben ist keine kluge Idee, warnen Forscher
 

josef

Administrator
Mitarbeiter
#8
CYBERBETRUG
Wie Kriminelle mit KI-Avataren Firmen abzocken
Per Mausklick erstellte digitale Klone wirken täuschend echt – und können in Unternehmen Schäden in Millionenhöhe anrichten
Vor wenigen Wochen erhielt ein Finanzangestellter im Hongkonger Büro einer multinationalen Firma per E-Mail eine Einladung zu einer Videokonferenz. Der Absender: der Finanzvorstand aus dem Vereinigten Königreich. Er solle geheime Transaktionen ausführen, so die Ansage. Der Mitarbeiter war zunächst misstrauisch und dachte an eine Phishing-Mail, doch als er den Link öffnete und seine Kollegen live und in Farbe in den Kacheln der Videokonferenz sah, waren seine Bedenken weggewischt.

Warum Verdacht schöpfen, wenn einen der Chef aus Übersee anschreibt und das Team eingeweiht ist? Die Kollegen sahen echt aus, und sie klangen auch so. Gutgläubig folgte der Mitarbeiter den Instruktionen und führte 15 Transaktionen im Umfang von 200 Millionen Hongkong-Dollar (umgerechnet 24 Millionen Euro) an verschiedene Bankkonten aus. Als sich der Mitarbeiter bei seinem obersten Boss rückversicherte, war es schon zu spät. Das Geld war weg.


KI-Klone können etwa die Identität von Vorgesetzten annehmen oder als Phantom-Mitarbeiter sensible Daten ausspionieren.
Images

Der Mitarbeiter war auf einen besonders perfiden Trickbetrug hereingefallen: Wie die Polizei gegenüber lokalen Medien mitteilte, waren die Kolleginnen und Kollegen in dem Videoanruf nicht echt, sondern fake – sie wurden mithilfe von künstlicher Intelligenz (KI) in das Bewegtbild eingebaut. Die Polizei vermutet, dass die Betrüger im Vorfeld ihrer Tat Videoaufnahmen heruntergeladen und damit ein KI-System trainiert hatten, das die digitalen Klone erzeugte. Wie die Täter an das Material gelangten und ob möglicherweise interne Quellen angezapft wurden, ist Gegenstand polizeilicher Ermittlungen.

Schnelle Entwicklung
Deepfakes nehmen rasant zu. Vor wenigen Tagen erst erhielten zahlreiche Bürger in New Hampshire automatisierte Fake-Anrufe von US-Präsident Joe Biden. Die KI-Manipulationen treffen aber nicht nur Politiker und andere Prominente wie jüngst Taylor Swift, von der Deepfake-Pornobilder im Netz kursierten, sondern zunehmend auch Unternehmen.

So hatten 2021 Cyberkriminelle mithilfe von KI-Werkzeugen die Stimme eines Bankdirektors in den Vereinigten Arabischen Emiraten geklont und einen Bankangestellten am Telefon um 35 Millionen US-Dollar geprellt. In einem ähnlich gelagerten Fall wurde der Geschäftsführer eines Energieunternehmens von einem Telefonbetrüger überlistet, der mit der Stimme des Chefs der deutschen Mutterfirma sprach. Das Opfer glaubte, den deutschen Akzent seines Vorgesetzten zu hören und führte Überweisungen an ein ungarisches Konto aus. Als der Geschäftsführer sah, dass der vermeintliche Boss von einer österreichischen Nummer anrief, schöpfte er Verdacht – und unterließ eine zweite Zahlung. Doch da war der Schaden schon angerichtet.

Inzwischen ist die Technik weitaus ausgefeilter – und das Missbrauchspotenzial entsprechend größer. Rufnummern lassen sich manipulieren, und mithilfe von frei zugänglichen KI-Werkzeugen lassen sich mit nur wenigen Sekunden Trainingsmaterial Stimmen klonen. Man kann mit KI sogar einen Nachrichtensprecher bauen, der in der gewünschten Zielsprache einen Text aufsagt. Voice-Scams bergen auch für Unternehmen erhebliche Gefahren.

Wie kann man sich schützen?
Das FBI warnte bereits 2022 in einem Bericht vor Manipulationen bei Remote-Jobs, bei denen sich vermeintliche Bewerber in Videointerviews als eine andere Person ausgeben, um Zugang zu internen Dokumenten zu erlangen oder Schadsoftware einzuschleusen. Seit der Pandemie finden immer mehr Vorstellungsgespräche online statt. Doch im Gegensatz zum physischen Raum können Personalerinnen im virtuellen Raum kaum feststellen, ob ihnen ein echter Mensch oder eine Sprechpuppe gegenübersitzt, deren Mimik und Stimme von einem Computer synthetisiert wurden.

Vor allem in Branchen, in denen viel remote gearbeitet wird, ist die Verwundbarkeit groß. Eine Bewerbung ist dank ChatGPT schnell geschrieben. Kaum hat man sich versehen, hat man eine Phantommitarbeiterin im Team, die am ersten Tag im Intranet herumschnüffelt und sensible Daten wie Sicherheitspläne oder Termine der Führungsebene abgreift – und dann plötzlich abtaucht. Die Personalabteilungen von Remote-Firmen sind gewarnt. Doch was kann man tun, um Deepfakes zu identifizieren?

Der amerikanische Arbeitsmarkt- und Personalexperte John Sullivan rät zu umfangreichen Background-Checks bei der Einstellung von Bewerbenden. Personaler sollten vorher Social-Media-Profile unter die Lupe nehmen und gezielte Fragen zu Publikationen oder Stationen im Lebenslauf stellen, empfiehlt er auf seiner Website. Da die meisten Fake-Bewerbenden in Ländern wie Russland, China, Nordkorea und Nigeria lebten, reichten auch einfache Prüffragen wie "Was ist CNN?", um mögliche Betrügerinnen und Betrüger zu entlarven. Zudem lassen sich Deepfakes an technischen Unzulänglichkeiten beziehungsweise Anomalien wie nichtblinzelnden Augen oder fehlender Lippensynchronisation erkennen. Häufig wirkt auch die Mimik steif. Am Telefon, wo man kein Bild vor Augen hat, stellt sich die Situation aber noch einmal anders dar.

Im Zeitalter der KI muss man damit rechnen, dass Anrufende oder Konferenzteilnehmer fake sind. Vielleicht führen die Bild- und Tonmanipulationen am Ende doch dazu, dass man sich in Präsenz trifft. Denn dort weiß man, dass einem auch die richtige Chefin gegenübersitzt.
(Adrian Lobe, 28.2.2024)

Weiterlesen:
"Oma, ich bin's": Betrüger ergaunern sich Geld durch das Klonen von Stimmen
Was KI-Influencer ihre Avatare alles tun lassen
Der Mensch ist noch immer die günstigere Sortiermaschine

Wie Kriminelle mit KI-Avataren Firmen abzocken
 

josef

Administrator
Mitarbeiter
#9
KI-ZIELERFASSUNG
Project Maven: USA nutzen erstmals künstliche Intelligenz bei Bombenangriffen
Maschinelles Lernen kommt vor allem bei der Zielidentifikation zum Einsatz, am Ende gebe aber immer noch ein Mensch die Befehle, betonen die US-Streitkräfte

85 US-Luftangriffe im Irak und in Syrien wurden mithilfe von Zieldaten geflogen, die von einer KI-Bilderkennung stammten.
APA/AFP/South Korean Defence Min

Es war nur eine Frage der Zeit, bis KI-Technologie in den Kriegsgebieten dieser Welt eingesetzt wird. Nun hat das US-Militär erstmals Einblicke gegeben, wie es künstliche Intelligenz einsetzt. Einem Bericht von "Bloomberg News" zufolge nutzt das Pentagon KI-gestützte Bilderkennung, um Ziele für Luftangriffe zu identifizieren. Diese Technologie soll bei der Durchführung von mehr 85 Luftangriffen im Nahen Osten eingesetzt worden sein.

Dabei handelt es sich um US-Bombenangriffe vom 2. Februar 2024 im Irak und in Syrien – die fraglichen Bombardierungen, die am 2. Februar in verschiedenen Teilen des Irak und Syriens stattfanden. Dabei wurden sieben Einrichtungen von US-Bombern und Kampfflugzeugen zerstört. Darunter Raketen, Drohnen und Operationszentren der Milizen, berichtet "Bloomberg". Sie waren Teil einer organisierten Reaktion der Regierung Biden auf den Drohnenangriff in Jordanien im Jänner, bei dem drei US-Soldaten getötet wurden. Die US-Regierung hat iranische Unterstützer für den Angriff verantwortlich gemacht.

KI-Forschung seit 2017
Schuyler Moore, Chief Technology Officer vom Central Command der US-Streitkräfte berichtet davon, dass "Computervision-Algorithmen" eingesetzt wurde. Dabei dürfte es sich um ein Programm für maschinelles Lernen handeln. Konkret dürfte die Software Zieldaten auswerten und etwa dabei helfen, feindliche Raketenwerfer zu identifizieren. Jedenfalls sei das System im Einsatz gewesen, um zu erkennen, wo sich Bedrohungen befunden hätten, so Moore. Die Offizierin führte weiter aus, dass KI-Systeme auch dabei geholfen hätten, Überwasserschiffe im Roten Meer zu identifizieren, von denen das Zentralkommando (Centcom) nach eigenen Angaben mehrere zerstört habe. Die vom Iran unterstützten Huthi-Milizen im Jemen haben wiederholt Handelsschiffe im Roten Meer mit Raketen angegriffen.

Die Ziele wurden im Rahmen von Project Maven entwickelt. Dabei handelt es sich um eine 2017 gestartete Initiative zur beschleunigten Einführung von KI und maschinellem Lernen im gesamten Verteidigungsministerium. Gleichzeitig soll künstliche Intelligenz die Aufklärung unterstützen, wobei damals noch der Fokus auf den Kampf gegen den "Islamischen Staat" lag. Laut Moore kann das System Ziele anhand von Satellitenbildern und anderen Datenquellen lokalisieren und identifizieren. Mit dem Angriff der Hamas auf Israel am 7. Oktober hätten die US-Streitkräfte Project Maven deutlich beschleunigt und nun "nahtlos" eingesetzt.

KI bleibt (noch) hinter dem Menschen zurück
Das US-Militär fügte eilig hinzu, dass die KI-Fähigkeiten von Maven nur dazu dienen, potenzielle Ziele zu finden. Priorisierung und Verifzierung sowie die Freigabe eines Luftangriffs würden sehr wohl von Menschen durchgeführt.

Außerdem werden die KI-generierten Bilddaten ständig von Menschen überprüft, fügte Moore hinzu. Man nehme die Verantwortung sowie das Risiko eine KI-Fehlers sehr ernst. "Es ist in der Regel ziemlich offensichtlich, wenn etwas nicht stimmt", so Moore. "Es gibt nie einen Algorithmus, der einfach nur arbeitet, zu einem Ergebnis kommt und dann zum nächsten Schritt übergeht", sagte sie. "Jeder Schritt, an dem KI beteiligt ist, wird am Ende von einem Menschen kontrolliert.

Dass Angriffe nicht vollautomatisch erfolgen, dürfte auch ganz praktische Gründe haben: Übungen im Vorjahr mit Zielvorgaben durch eine KI hätten gezeigt, dass solche Systeme bei der Empfehlung der Angriffsreihenfolge oder der Wahl der geeignetsten Waffe häufig hinter dem Menschen zurückbleiben. Oder um es kurz zu machen: Sie sind einfach nicht so weit.
(red, 28.2.2024)
Project Maven: USA nutzen erstmals künstliche Intelligenz bei Bombenangriffen
 

josef

Administrator
Mitarbeiter
#10
KÜNSTLICHE INTELLIGENZ
Forscher kreieren ersten KI-Wurm und warnen vor realer Bedrohung
Eine neue Generation von Computerwürmern soll sich durch selbst replizierende Befehle in Systemen von KI-Assistenten fortpflanzen können


Wie Forscher nun zeigen, können sich Würmer auch über KI-Assistenten ausbreiten.
Bing/Dall-E Image Creator

Wie jede moderne Technologie birgt generative künstliche Intelligenz (KI) neben großen Chancen – wenig überraschend – auch jede Menge Risiken. Dazu zählt offenbar auch eine neue Art von Computerwurm, wie Sicherheitsforscher der US-amerikanischen Cornell University und des israelischen Technion-Instituts nun unter Beweis gestellt haben. Dieser Wurm, in Anlehnung an den ersten Computerwurm "Morris II" getauft, nutzt das Konzept schädlicher, selbst replizierender Befehle, um sich in Ökosystemen von KI-Assistenten zu verbreiten.

Im Mittelpunkt der Untersuchung standen drei prominente KI-Modelle: Gemini Pro von Google, ChatGPT 4.0 von OpenAI und LLaVA, ein offenes Modell, das auf der LLaMA-Architektur basiert. Der Wurm kann nicht nur Sicherheitsvorkehrungen genannter Systeme umgehen. Die Forscher demonstrierten in einer Testumgebung, dass der Schädling auch in generative KI-gestützte Tools eindringen könnte, um etwa Daten zu stehlen oder Spam zu verbreiten.

Leichte Beute
Wie "Wired" berichtete, gelang es Forschern mit dieser Methode am Beispiel eines E-Mail-Assistenten, sensible Daten wie Namen, Telefonnummern und Kreditkarteninformationen einfach aus Nachrichten zu extrahieren. Sie veröffentlichten ihre Ergebnisse in einer ausführlichen Studie und demonstrierten ihre Erkenntnisse auch in einem Video auf ihrer Webseite.

ComPromptMized: Unleashing Zero-click Worms that Target GenAI-Powered Applications
Ben Nassi

"Die Studie zeigt, dass Angreifer Anweisungen in die Eingabefelder einfügen können, die, wenn sie von einem GenAI-Modell verarbeitet werden, dieses dazu veranlassen, die Eingabe als Ausgabe zu replizieren und bösartige Aktivitäten auszuführen", wird ausgeführt. Diese manipulierten Eingaben können sich innerhalb eines KI-Ökosystems ausbreiten, indem sie von einem Assistenten zum anderen weitergeleitet werden. Die Forscher ziehen dabei Parallelen zwischen dieser Methode und bekannten Cyberangriffstechniken wie der SQL-Injection und dem Buffer Overflow.

OpenAI reagiert, Google schweigt
Nachdem ihre Angriffe Erfolg gezeigt hatten, nahm das Forscherteam Kontakt zu OpenAI und Google auf, um sie über ihre Entdeckungen zu informieren. OpenAI reagierte daraufhin mit der Zusage, die Sicherheit ihrer Systeme weiter zu verstärken, und appellierte an die Entwicklergemeinschaft, Vorsichtsmaßnahmen zu treffen, um die Verarbeitung potenziell schädlicher Daten zu vermeiden. Google hat bislang noch keine Stellungnahme zu den Forschungsergebnissen abgegeben.

Die Forscher prognostizieren, dass innerhalb der nächsten zwei bis drei Jahre ähnliche KI-Würmer in realen Anwendungsszenarien auftauchen könnten, was die Notwendigkeit unterstreicht, sich mit diesen neuen Sicherheitsrisiken auseinanderzusetzen und entsprechende Schutzmaßnahmen zu entwickeln.
(red, 5.3.2024)

Forscher kreieren ersten KI-Wurm und warnen vor realer Bedrohung
 

josef

Administrator
Mitarbeiter
#11
EU-PARLAMENT
Strenges Gesetz zu KI beschlossen
1710345173338.png

Das Europäische Parlament hat am Mittwoch einen möglicherweise wegweisenden Beschluss gefasst und KI-Anwendungen reguliert. Das Gesetz erfasst die verschiedenen einschlägigen Technologien – von einfacheren Softwareprogrammen zu Beginn der KI-Entwicklung bis zu komplexen, selbstlernenden Chatbots – und regelt ihre Anwendung.
Online seit heute, 15.38 Uhr
Teilen
Das Gesetz orientiert sich ganz grundsätzlich am Schutz von Konsumenten und Konsumentinnen – und am Prinzip der Risikoeinschätzung. Je größer das Risiko einer Anwendung und ihrer Möglichkeiten sein kann, je heikler also die potenziellen Auswirkungen sind, umso strenger fällt die Regulierung aus.

Manche Anwendungen sind verboten. Gesichtserkennung zum Beispiel, wenngleich einige Ausnahmen Einsprüche und wechselseitiges Lobbying überstanden haben, etwa solche, die die Polizei für Ermittlungen für nötig hält. Unzulässig ist KI da, wo es um Daten über Gefühle und Verhalten und deren Auswertung geht („social scoring“).

Risikoeinschätzung bestimmt Regulierungsgrad
Unter die Bereiche, die als besonders heikel gelten, fällt zum Beispiel kritische Infrastruktur: Wasser- und Energieversorger, Kommunikationsunternehmen und der medizinische Sektor. Die Einschränkungen für die Anwendung künstlicher Intelligenz sind weitgehend und sollen entsprechend streng überwacht werden.

Geringer wird das Risiko dagegen definiert, wenn es zum Beispiel um Spamfilter geht. In dem Bereich muss eine Firma im Wesentlichen ausschildern, dass KI verwendet wird. Obligatorisch ist außerdem ein Hinweis, dass keine Urheberrechte verletzt werden.

ORF.at/Florian Bock

Politik in Wettlauf mit technischer Entwicklung
Die europäischen Politiker und Politikerinnen mussten sich auf ein eigenes Rendezvous mit der Wirklichkeit einstellen. Vor fünf Jahren hatten sie angefangen, über die Regulierung künstlicher Intelligenz zu diskutieren, und dann kam vor nicht einmal eineinhalb Jahren Sam Altman mit dem Unternehmen OpenAI und präsentierte mit ChatGPT ein Programm, das Realität und Science Fiction verheiratete.

Die technische Entwicklung und die Anwendungsvielfalt seither waren an Rasanz nicht zu überbieten. Nahezu jeden Tag kamen neue KI-Programme zum Vorschein und auf den Markt. Die Möglichkeiten zu erfassen und zu regeln, was im Sinn der Gesellschaft nötig war, wurde für die Politik zum Wettlauf mit der Zeit. Die EU versuchte es, und heute Mittag war das Ergebnis im Parlament in Straßburg zu besichtigen: Das erste umfassende Gesetz zu Regelung künstlicher Intelligenz wurde mit großer Mehrheit beschlossen.

APA/AFP/Frederick Florin

Die Regierungen der 27 EU-Mitglieder müssen dem Gesetz noch zustimmen. In Kraft treten soll es etappenweise innerhalb der kommenden zwei Jahre. Wie oft seine Bestandteile bis dahin geändert und angepasst werden müssen, wird die Praxis zeigen. Die Anwendungen der Technologie scheinen grenzenlos, die Auswirkungen oft unabsehbar. Gesetzliche Regelungen hinken der Wirklichkeit oft hinterher. Aber in der Europäischen Union überwiegt zumindest im Moment die Zuversicht, Wegweisendes geregelt zu haben und darin anderen Staaten als Orientierung zu dienen.
13.03.2024, hafi, Brüssel, für ORF.at/Agenturen

EU-Parlament: Strenges Gesetz zu KI beschlossen
 
#12
Und wieder einmal ein strenges Gesetz, wie auch vor kurzem - wobei dieses selbst von der EU-Kommission nicht eingehalten wurde Microsoft 365
Die EU nimmt sich hier permanent aus dem wirtschaftlichen Rennen.
Im IT Bereich wären da einmal: Recht auf Vergessen bei Google, Buchungsplattformen, Social Media, Datenschutz allgemein, Kontenregister, Zahlungsplattformen, Krypto-Versteuerung, ICO's ...und jetzt eben KI.
Hinter all diesen Schlagwörtern von mir stehen aber sehr potente Firmen, die sehr viele Arbeitsplätze auch für den weiteren angeschlossenen Sektor geschaffen haben.
 

josef

Administrator
Mitarbeiter
#13
KI führt zu Umbruch in Industrie und Landwirtschaft
Künstliche Intelligenz (KI) sorgt in zahlreichen Branchen zunehmend für einen Umbruch. Schon jetzt setzt jedes vierte Industrieunternehmen KI ein. In der Landwirtschaft nutzt man KI in Niederösterreich beim Anbau von Pflanzen – samt Drohnen und Sensoren.
Online seit heute, 7.30 Uhr
Teilen
Auf einem Feld in der Nähe von Maissau (Bezirk Hollabrunn) wird bereits jetzt testweise KI eingesetzt. Auf dem Feld werden Schlüsselblumen angebaut, die als natürlicher Rohstoff für Erkältungsmittel dienen. Mittels Drohnentechnologie soll die Unkrautbekämpfung deutlich einfacher werden. „Man fliegt also mit der Drohne über das Feld“, erklärt Stefan Polly, Referatsleiter für Digitalisierung bei der LK-Technik Mold. „In diesem Fall ist es so, dass 1.500 Bilder gemacht werden.“

Meter für Meter werden hochauflösende Bilder der Pflanzen gemacht. Die KI soll dabei aber nicht die Schlüsselblume erkennen, vielmehr geht es um das Greiskraut. Landwirte wie Lukas Bruckner, der bei der Firma Waldland tätig ist und als Pflanzenbauberater fungiert, müssen die Felder nämlich ablaufen und jedes Greiskraut per Hand entfernen.
ORF
Mit einer Drohne wird das Feld Meter für Meter abgeflogen. Dabei werden rund 1.500 Fotos gemacht.

KI erstellt Karte von Greiskräutern
„Das braucht viel Zeit“, erklärt Bruckner. Jedes Greiskraut muss ausgerissen, in einen Plastiksack gegeben, vom Feld abtransportiert und dann verbrannt werden. „Wenn man das nicht macht, wachsen die Pflanzen wieder an, bilden Samen und dadurch haben wir dann eine Vermehrung am Feld.“ Bereits sechs Greiskraut-Pflanzen pro Hektar reichen aus, damit die komplette Charge verworfen werden könnte.

Die KI fotografiert daher alle Greiskräuter und erstellt eine Karte. „Auf der Karte sieht man Punkte, wo die Greiskräuter eingezeichnet sind. So kann der Landwirt dort hin navigieren und das Greiskraut entfernen“, so Polly. Noch ist man dabei, Daten zu sammeln, um die KI zu trainieren. In ein bis zwei Jahren soll die Technologie einsetzbar sein. Dann sollen es die Karten nicht nur am Tablet sowie am Handy geben, man könnte die Karten auch auf Roboter laden, die die Greiskräuter dann gezielt ausreißen sollen.

ORF
Auf einer Karte werden sämtliche Greiskräuter von der KI dargestellt. Dort, wo sich viele rote Punkte befinden, handelt es sich um Nester.

Wie KI Pflanzen optimal wachsen lässt
Ebenfalls um Pflanzen dreht es sich bei der Firma Smart Greenery in Breitenfurt bei Wien (Bezirk Mödling). Hier befindet sich eines von nur wenigen von der EU-geförderten Projekten im Bereich der datengetriebenen Pflanzenproduktion. Auf drei bis vier Ebenen übereinander werden Medizinalpflanzen angebaut. In erster Linie handelt es sich um Heilpflanzen und Superfoods.

„Wir haben hier zum Beispiel Ashwagandha. Das ist eine ayurvedische Medizinalpflanze, die normalerweise in Indien vorkommt“, so Stefan Wögerbauer, Geschäftsführer der Firma Smart Greenery. Aber auch andere Pflanzen wie Zitronenverbene oder diverse Minzearten werden beim sogenannten Vertical Farming angebaut. „Beim Vertical Farming haben wir keine externen Einflüsse, wir haben keinen Regen und keine Umweltverschmutzung. Das heißt, die Pflanze kann sich optimal entwickeln.“

Neben Parametern wie Temperatur und Luftfeuchtigkeit forscht man hier vor allem am Farbspektrum. „Wir geben der Pflanze nur das Licht, das sie braucht“, so Wögerbauer. „Jede Pflanze, je nachdem, wo sie wächst, braucht ein anderes Farbspektrum.“ Interessant ist, dass in den Räumlichkeiten viele Pflanzen nicht grün, sondern violett aussehen. „Aus dem sichtbaren Licht brauchen die Pflanzen nur das rote und das blaue Licht, sie reflektieren daher das grüne Licht. Deswegen schauen Pflanzen üblicherweise grün aus“, erklärt Stefan Gindl, Studioleiter bei der Research Studios Austria Forschungsgesellschaft. „Hier in der Anlage wirken die Pflanzen deshalb violett, weil sie eben nur vom roten und blauen Licht angestrahlt werden.“

Um optimale Bedingungen für die Pflanzen zu finden, setzt man auf KI. Die KI kann nicht nur den Pflanzentyp erkennen, sie entscheidet auch automatisch über Farbspektrum, Düngemittel, Bewässerung oder auch Belüftung. Unter anderem kann die KI von der Wachstums- und die Blühphase überleiten, indem plötzlich Herbstlicht simuliert wird. Die Pflanzen würden dann nämlich Früchte produzieren.

ORF
Die Medizinalpflanzen in der Anlage erscheinen violett, weil sie lediglich mit rotem und blauem Licht bestrahlt werden

KI optimiert zahlreiche Prozesse
Auch in der Industrie setzt man schon längst auf KI. „KI ist deswegen relevant, weil es viele Prozesse optimiert“, so Roland Sommer, Geschäftsführer der Plattform Industrie 4.0. Das können einerseits Produktionsprozesse sein, andererseits gehe die Entwicklung stark in Richtung Qualitätskontrolle. Beispielsweise setzt die Industrie AutomatisierungsgmbH (IAG) in Weikersdorf am Steinfelde (Bezirk Wr. Neustadt) seit Jahren auf KI. Das Unternehmen ist im Bereich des Sondermaschinenbaus tätig und fertigt auf Kundenwunsch spezielle Maschinen und Industrieanlagen.

„Ein typisches Beispiel von unseren Produkten sind Automaten für die Bremsbelagsindustrie. Wir bauen hier individuelle Pressenlinien mit Ofenanlagen. 80 Prozent der Pkw-Beläge in Europa kommen von unseren Maschinen“, so IAG-Geschäftsführer Stefan Gruber. Unter anderem greift das Unternehmen auf Kameratechnik zurück. Mittels Kameras kann eine KI nämlich abgleichen, ob ein Produkt den Qualitätsanforderungen entspricht.

Weil hinter jeder KI eine große Menge an Daten steckt, können sich Firmen untereinander künftig auch besser vernetzen. „Das heißt, wir sehen zunehmend, dass über Unternehmensgrenzen hinweg Optimierungspotenzial ist. Das betrifft zum Beispiel auch die Logistik“, erklärt Sommer. Er verweist auf eine Umfrage, die ergeben hätte, dass jedes vierte Industrieunternehmen in Österreich bereits KI einsetzt.

Auch für Selim Erol, Leiter des Instituts für Industrial Engineering an der Fachhochschule (FH) Wr. Neustadt, ist KI ein mächtiges Werkzeug. Mit seinem Team erstellt er regelmäßig Machbarkeitsstudien für diverse Unternehmen. noe.ORF.at zeigt er einen Prototypen, der veranschaulicht, wie KI die Produktionsprozesse vereinfachen kann. Dabei überwachen Kameras diverse Prozesse. „Die Kamera macht ein Bild von diesem Teil und kann dann mit dem angelernten Wissen vergleichen und einschätzen, ob ein Fehler vorliegt“, so Erol.

ORF
Selim Erol und sein Team erstellen Machbarkeitsstudien, um KI-Prozesse in der Industrie auf Prototypen zu testen

Anlernen von KI als aufwendiges Unterfangen
Eine KI zu trainieren kann allerdings sehr aufwendig sein. „Dieser Prozess, dieses Anlernen und Füttern der KI, verbraucht Ressourcen und Zeit. Das können Stunden sein. Es können aber auch Tage oder Wochen sein. Je mehr die KI können soll, desto länger braucht auch der Lernprozess“, sagt der Leiter des Instituts für Industrial Engineering an der FH Wr. Neustadt.

Dass KI künftig viele Arbeitsplätze obsolet machen könnte, glaubt der Geschäftsführer der Plattform Industrie 4.0 trotz der jüngsten Entwicklungen nicht. „Ich würde gerne eine Analogie verwenden. Als der PC aufgekommen ist, hat man damals auch das Gefühl gehabt, dass er den Menschen ersetzen wird“, führt Sommer aus. Stattdessen seien 2.000 unterschiedliche neue Jobprofile entstanden. KI wird jedenfalls massive Umbrüche bringen – womöglich aber genauso viele Chancen.
26.03.2024, Thomas Puchinger, noe.ORF.at
KI führt zu Umbruch in Industrie und Landwirtschaft
 
#14
All diese Beispiele sind keine "KI", da sich die Applikation/Anwendung in einem vom Menschen definierten Bereich befindet.
Also z.B. Überfliege einen Bereich, suche nach diesem oder jenen, mache Fotos, vergleiche und ordne die Ergebnisse nach einem Schema.
das gibt es schon sehr lange.
Man denke an das Zuschneiden und Verpacken von Lachsstücken oder bei verleimten Holzelementen das Herausschneiden von Schadstellen.

KI bedeutet, die Entscheidungen einem System zu überantworten, ohne direkter Vorgaben.
Die meisten "KI-Systeme" verwenden dann "Selbstlern-Mechanismen"- die aber nichts bringen, da diese immer eine "Standardumgebung" voraussetzen, die es in der Wirklichkeit nicht gibt.
Beispiel: sogar bei der vorher erwähnten Zuschneidung von Lachsstücken müssen diese mittels einem Standard zugeführt werden (Förderband, welches die Stücke standardisiert zuführt).

Stellen dann KI-System fest, dass es nicht standardisierte Abweichungen gibt (z.B am Kopf Kratzen, wie im Post zuvor) dann reagiert die KI wie vom Menschen vorgegeben: entweder Strafe oder Nichtstun, da "nicht erkannter Vorgang".
Noch schlechter wäre es, wenn dieses Kratzen eine Strafe nach sich zieht und durch das "automatische Lernen" Teil des Systems würde.

Für mich war dieses Buch sehr informativ: 978-3-570-10445-3
 

josef

Administrator
Mitarbeiter
#15
KI bedeutet, die Entscheidungen einem System zu überantworten, ohne direkter Vorgaben.
Zur (positiven) Nutzung muss man aber sehr wohl eine Basis- bzw. Zielvorgabe machen um einen KI-Prozess zu starten. KI findet/erstellt dann hoffentlich einen (richtigen...) Weg ohne das weitere Zutun (Vorgaben...) von außen (z.B. Programmierer...) zur optimalen Erreichung des Zieles!

Als sicher übertriebenes Negativbeispiel wäre z.B. wenn eine militärische Großmacht als Worst-Case-Szenario den Befehl bzw. Auslösung zum atomaren Angriff oder Gegenschlag der KI ohne menschliche Eingriffsmöglichkeit überlassen würde...
 

josef

Administrator
Mitarbeiter
#16
AUTONOMER KAMPFJET
KI-Pilot fliegt erfolgreichen Luftkampf gegen einen Menschen in einer F-16
Die US-Luftwaffe hat eine KI-gesteuerte X-62A gegen einen Menschen im Dogfight antreten lassen. Wer gewonnen hat, wird nicht verraten. Aber: Die Tests waren erfolgreich
19. April 2024, 16:06

Die X-62A ist eine KI-gesteuerte Variante der F-16.
USAF/Kyle Brasier

Die US-Luftwaffe setzt die KI auf den Pilotensitz und dürfte dem Ziel des autonomen Waffensystems deutlich näher gekommen sein, wie aus einem Bericht der Defense Advanced Research Projects Agency (DARPA) vom Donnerstag hervorgeht. Demnach konnte sich ein KI-gesteuerter Kampfjet bei einem Dogfight erfolgreich gegen einen menschlichen Piloten behaupten.

Die DARPA begann im Dezember 2022 im Rahmen ihres Programms Air Combat Evolution (ACE) mit KI-Anwendungen zu experimentieren. Ziel war es, ein KI-System zu entwickeln, das in der Lage ist, einen Kampfjet autonom zu fliegen und gleichzeitig die Sicherheitsvorgaben der Air Force einzuhalten. Erste Flugtests waren im Februar des Vorjahres erfolgreich, als eine X-62A Vista (Vista wie "Variable In-Flight Simulation Test-Aircraft") erfolgreich einen 17-stündigen Testflug absolvierte, DER STANDARD berichtete.

"Dogfights sind erst der Anfang"
Die ersten Luftkampfsimulationen wurden aber noch am Boden mittels VR-Brillen durchgeführt. Echte Piloten traten gegen die Künstliche Intelligenz an, und in der finalen Phase gelang es der KI, fünf von fünf Duellen für sich zu entscheiden. Bis eine unbemannte Maschine aber tatsächlich in die Luft steigen sollte, verging noch einige Zeit, denn der KI musste zuerst beigebracht werden, wie sie menschliche Piloten möglichst nicht gefährdet. Deshalb wurde die X-62A Vista entwickelt. Dabei handelt es sich um ein stark modifiziertes Trainerflugzeug auf Basis der F-16. In diesem sind immer zwei menschliche Piloten an Bord, die notfalls die Steuerung übernehmen können, sollte die KI zu gefährliche Manöver fliegen oder ganz versagen. In 21 Testflügen mussten über 100.000 Softwareänderungen vorgenommen werden, so die offizielle Mitteilung von DARPA.

Im September 2023 war es schließlich so weit, und die X-62A hob erstmals zu einem simulierten Dogfight gegen einen echten menschlichen Piloten in einer F-16 ab. Beide Flugzeuge gingen mit 1.900 km/h in einer Höhe von rund 600 Metern in den Nahkampf über. Die DARPA teilte jedoch nicht mit, wer am Ende siegreich aus der Konfrontation hervorging. Das autonome Flugzeug habe den Test erfolgreich absolviert und sei sowohl offensive als auch defensive Manöver geflogen.

Erfolgreiche Dogfights seien aber nicht das Ziel gewesen, sondern erst der Anfang der autonomen Kampfjets. "Der Luftkampf war das Problem, das es zu lösen galt, damit wir autonome künstliche Intelligenzsysteme in der Luft testen konnten", wird Bill Gray, leitender Testpilot an der Testpilotenschule der Air Force, in der Mitteilung zitiert.

F-16 als autonome Drohnen
Bei der US Air Force sind aktuell mehrere Projekte in Arbeit, die sich mit KI-gesteuerten Kampfjets befassen. So hat das Projekt Venom (Viper Experimentation and Next-Generation Operations Model, wobei Viper als Codename für die F-16 steht) zum Ziel, die alternden F-16 in autonome Drohnen umzubauen. Diese sollen als Flügelmänner von menschlichen Piloten der wesentlich moderneren F-35 dienen und sie im Einsatz unterstützen. Insgesamt sollen 1.000 Exemplare dieser sogenannten Collaborative Combat Aircrafts gebaut werden. Geplant sind derzeit Dreierformationen, bei denen jeweils eine bemannte F-35 mit zwei unbemannten F-16 als "Kraftmultiplikatoren" zum Einsatz kommen soll.

Im Februar gaben die US-Streitkräfte erstmals bekannt, dass sie maschinelles Lernen bei der Auswahl von Zielen für Luftschläge im Nahen Osten einsetzen. Eine Software soll etwa feindliche Raketenstellungen erkennen können und als mögliches Angriffsziel vorschlagen. 85 Luftangriffe sollen auf Basis der von der KI gefundenen Ziele geflogen worden sein, hieß es.
(red, 19.4.2024)

Link
Bericht von DARPA
Nachlese
Project Maven: USA nutzen erstmals künstliche Intelligenz bei Bombenangriffen

KI-Pilot fliegt erfolgreichen Luftkampf gegen einen Menschen in einer F-16
 
Oben