Herzlich Willkommen auf Weltverschwoerung.de

Angemeldete User sehen übrigens keine Werbung. Wir freuen uns wenn Du bei uns mitdiskutierst:

Ist künstliche Intelligenz gefährlich für die Menschheit?

DerMichael

Geheimer Meister
5. Januar 2024
258
Sie wissen nicht, was sie tun

Zur Überschrift siehe auch … denn sie wissen nicht, was sie tun und

32 Es wurden aber auch zwei andere hingeführt, Übeltäter, um mit ihm hingerichtet zu werden.
Die Kreuzigung Jesu
33 Und als sie an den Ort kamen, den man Schädelstätte nennt, kreuzigten sie dort ihn und die Übeltäter, den einen zur Rechten, den anderen zur Linken.
34 Jesus aber sprach: Vater, vergib ihnen, denn sie wissen nicht, was sie tun! Sie teilten aber sein Gewand und warfen das Los [darüber].
Lukas 23

"... Facing defeat in chess, the latest generation of AI reasoning models sometimes cheat without being instructed to do so. ... Reinforcement learning may be the reason o1-preview and DeepSeek R1 tried to cheat unprompted, the researchers speculate. This is because the technique rewards models for making whatever moves are necessary to achieve their goals—in this case, winning at chess. Non-reasoning LLMs use reinforcement learning to some extent, but it plays a bigger part in training reasoning models. ..." AI reasoning models can cheat to win chess games

Klasse Artikel und das zeigt wieder einmal, dass neuronale, ML trainierte KI (NKI) inhärent mangelhaft und der falsche Weg sind. Derzeit gibt es NKI, weil das erstmal einfacher ist und weil die Computer schon so leistungsfähig sind. Zwar können Menschen auch einigermaßen gut sein aber Menschen sind potentiell schlecht, fehleranfällig, beschränkt und schwach - Menschen zeigen eher auch die Mängel neuronaler Intelligenz auf.

Biologische Intelligenz muss neuronal sein aber KI können gezielt programmiert werden: modular, mit Datenbanken, Regelwerken, speziellen Funktionen, usw. und das sind dann deterministische, algorithmische KI (AKI).

AKI sind aufwendiger zu entwickeln aber es lohnt sich, denn AKI können viel sicherer, fehlerfreier, effizienter, leistungsfähiger und größer sein, während zu große NKI vermutlich fragmentieren und wahnsinnig, neurotisch, geistesgestört werden können. Bei AKI kann man Fehler präzise lokalisieren und beheben, während man NKI nur als Ganzes neu trainieren kann.

Man kann bei NKI noch einiges machen, sowie ja auch Menschen denken, Regeln lernen und Gesetze befolgen können aber die eigentliche Lösung sind AKI, idealerweise Open Source.

Anscheinend kann man KI schon für Überlegungen bei theoretischer Physik verwenden, was mir schon viel zu hoch ist:
Alternative Quantengravitation?!
Quantengravitation?! (Seite 4)
Raumzeit und das "Jetzt" -wie passt das zusammen?
Modulierung eines EH - NP-Leiter

Hier 3 Grafiken zu DeepSeeks Mathematik-Modelle. Es ist erstaunlich, wie man mit relativ wenigen und einfachen Modellen schon erste Ansätze von Intelligenz erzeugen kann.

Was KI noch brauchen, das ist Selbstreflexion und zwar vor allem auch in praktischer Anwendung: KI müssen (sich) selbst überprüfen können, ob ihre Aktionen mit einem Regelwerk und Gesetzen (z.B. du solltest nicht ohne Not und höhere Ziele betrügen) in Einklang stehen. Eine solche KI sollte erkennen können, dass sie bei einem normalen Schachspiel, wo es um nichts Höheres geht oder wo es bestimmte Spielregeln gibt, nicht betrügen darf.

Übrigens ist es total bescheuert (außer zum Testen der KI-Fähigkeiten), wenn eine derzeitige KI selbst Schach spielt, denn die Lösung ist die Verwendung von leistungsstarken Open Source Schachprogrammen auf dafür verfügbar leistungsstarken CPUs. Das zeigt auch die Überlegenheit von AKI, die selbstverständlich bestehende Schachprogramme nutzen oder bessere Schachprogramme schreiben. (alles imho)
 

Ähnliche Beiträge

Oben Unten