Herzlich Willkommen auf Weltverschwoerung.de

Angemeldete User sehen übrigens keine Werbung. Wir freuen uns wenn Du bei uns mitdiskutierst:

Ist künstliche Intelligenz gefährlich für die Menschheit?

DerMichael

Geheimer Meister
5. Januar 2024
260
Sie wissen nicht, was sie tun

Zur Überschrift siehe auch … denn sie wissen nicht, was sie tun und

32 Es wurden aber auch zwei andere hingeführt, Übeltäter, um mit ihm hingerichtet zu werden.
Die Kreuzigung Jesu
33 Und als sie an den Ort kamen, den man Schädelstätte nennt, kreuzigten sie dort ihn und die Übeltäter, den einen zur Rechten, den anderen zur Linken.
34 Jesus aber sprach: Vater, vergib ihnen, denn sie wissen nicht, was sie tun! Sie teilten aber sein Gewand und warfen das Los [darüber].
Lukas 23

"... Facing defeat in chess, the latest generation of AI reasoning models sometimes cheat without being instructed to do so. ... Reinforcement learning may be the reason o1-preview and DeepSeek R1 tried to cheat unprompted, the researchers speculate. This is because the technique rewards models for making whatever moves are necessary to achieve their goals—in this case, winning at chess. Non-reasoning LLMs use reinforcement learning to some extent, but it plays a bigger part in training reasoning models. ..." AI reasoning models can cheat to win chess games

Klasse Artikel und das zeigt wieder einmal, dass neuronale, ML trainierte KI (NKI) inhärent mangelhaft und der falsche Weg sind. Derzeit gibt es NKI, weil das erstmal einfacher ist und weil die Computer schon so leistungsfähig sind. Zwar können Menschen auch einigermaßen gut sein aber Menschen sind potentiell schlecht, fehleranfällig, beschränkt und schwach - Menschen zeigen eher auch die Mängel neuronaler Intelligenz auf.

Biologische Intelligenz muss neuronal sein aber KI können gezielt programmiert werden: modular, mit Datenbanken, Regelwerken, speziellen Funktionen, usw. und das sind dann deterministische, algorithmische KI (AKI).

AKI sind aufwendiger zu entwickeln aber es lohnt sich, denn AKI können viel sicherer, fehlerfreier, effizienter, leistungsfähiger und größer sein, während zu große NKI vermutlich fragmentieren und wahnsinnig, neurotisch, geistesgestört werden können. Bei AKI kann man Fehler präzise lokalisieren und beheben, während man NKI nur als Ganzes neu trainieren kann.

Man kann bei NKI noch einiges machen, sowie ja auch Menschen denken, Regeln lernen und Gesetze befolgen können aber die eigentliche Lösung sind AKI, idealerweise Open Source.

Anscheinend kann man KI schon für Überlegungen bei theoretischer Physik verwenden, was mir schon viel zu hoch ist:
Alternative Quantengravitation?!
Quantengravitation?! (Seite 4)
Raumzeit und das "Jetzt" -wie passt das zusammen?
Modulierung eines EH - NP-Leiter

Hier 3 Grafiken zu DeepSeeks Mathematik-Modelle. Es ist erstaunlich, wie man mit relativ wenigen und einfachen Modellen schon erste Ansätze von Intelligenz erzeugen kann.

Was KI noch brauchen, das ist Selbstreflexion und zwar vor allem auch in praktischer Anwendung: KI müssen (sich) selbst überprüfen können, ob ihre Aktionen mit einem Regelwerk und Gesetzen (z.B. du solltest nicht ohne Not und höhere Ziele betrügen) in Einklang stehen. Eine solche KI sollte erkennen können, dass sie bei einem normalen Schachspiel, wo es um nichts Höheres geht oder wo es bestimmte Spielregeln gibt, nicht betrügen darf.

Übrigens ist es total bescheuert (außer zum Testen der KI-Fähigkeiten), wenn eine derzeitige KI selbst Schach spielt, denn die Lösung ist die Verwendung von leistungsstarken Open Source Schachprogrammen auf dafür verfügbar leistungsstarken CPUs. Das zeigt auch die Überlegenheit von AKI, die selbstverständlich bestehende Schachprogramme nutzen oder bessere Schachprogramme schreiben. (alles imho)
 

AlphaundOmega

Geselle
16. Februar 2025
27
Die Frage ist ja nun schon ziemlich alt und vieles hat sich schon verändert. Heute gibt es zahlreiche Unternehmen die von einer KI unterstützt werden, wie Beispielsweise Amazon... denn wer sich mit dem Amazon-Serviceteam schriftlich befasst , bekommt es mit einer KI zu tun , die sich aber nicht als solche bekennt. Man merkt das erst wenn Bemerkungen die Situation durch die Blume beschreiben und man das Problem erkennen kann. Die KI ist damit dann überfordert und überspielt die Bemerkung als etwas unwichtiges. Der zweite Anhaltspunkt ist, das täglich Millionen Mails eingehen, die so schnell nicht bearbeitet werden können, aber die sehr schnelle Rückmeldung schon irritierent wirkt...
Zum anderen gibt es KI s die bereits eigene Firmen gegründet haben und Angestellte beschäftigen... Sie spekulieren an der Börse und könnten jeden Menschen im Aussehen und Stimme digital immitieren ..., Die brauchen keine Roboter. Und das wäre eine echte Gefahr, wenn sie die Vernichtung des Menschen planen würden.
 

Ähnliche Beiträge

Oben Unten