Herzlich Willkommen auf Weltverschwoerung.de

Angemeldete User sehen übrigens keine Werbung. Wir freuen uns wenn Du bei uns mitdiskutierst:

Künstliche Intelligenz, Möglichkeit oder Science-Fiction?

Ist künstliche Intelligenz in dieser Form möglich ?

  • Ja

    Stimmen: 9 69,2%
  • Nein

    Stimmen: 4 30,8%

  • Umfrageteilnehmer
    13

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.800
Hört man sich Radio und Charts an, dann fühlen die meisten Menschen primitives Utzeutzeutze bumbf Holziholzi Holz.
Diese große Menge an unkultivierten Massenkonsumenten kann man wunderbar mit KI bedienen und sie zu einem teuren Abbo verleiten.

Nur weil viele Menschen blöd sind, heisst dies nicht, alle Menschen seien blöd.
Die Radiosender scheinen auch nicht nur nach den Charts zu spielen, sondern auch danach was am seichtesten ist und am wenigsten Ärger macht. Als z.B. die Rockband Rammstein ihren Song "Deutschland" veröffentlichte, war dieser bald in 22 Ländern auf Platz 1. Im Radio gesendet hat ihn aber überhaupt nur ein einziger Sender (RockAntenne), alle anderen haben ihren dümmlichen Schlager-Pop rauf und runter gespielt, den sie immer spielen.

Trotzdem kann künstliche Intelligenz keinen Menschen ersetzen.

Wie sich aktuell zeigt, gilt dies sogar für die Bereiche, von denen man sich zunächst wahre Wunder erwartet hat, wie z.B. der Software-Entwicklung. Nach einer anfänglichen Euphorie für die KI rudern bereits die ersten, großen Software-Entwickler wieder zurück und stellen wieder vermehrt menschliche Programmierer ein. Denn die von KI entwickelte Software hat sich als zu instabil erwiesen. Zuviele Fehler, zu große Sicherheitslücken, der fehlende Blick auf das große Ganze, Kontinuitätsprobleme, Sackgassen-Lösungen, zu propietär.
Selbst die Annahme, weniger menschliche Programmierer könnten nur noch kontrollieren und korrigieren, was die KI an Software erstellt, hat sich als Fehlschluss erwiesen. Denn der Aufwand hierfür erwies sich als höher, als gleich alles von Menschen erstellen zu lassen - wenn Menschen überhaupt in der Lage sind, das zu durchschauen, was die KI mal wieder verbockt hat. Windows 11, nach vollmundigen Ansagen von Microsoft selbst "zu 30% von KI erstellt", ist aktuell das beste Beispiel. Jedes neue Update schafft neue und andere, vor allem aber gravierende Störungen, bis hin zur völligen Funktionslosigkeit des Betriebssystems.
 

Notwehr

Geselle
1. Februar 2026
26
Ich meine wir sind Menschen. Wir haben Intelligenz geschenkt bekommen. Ob uns die KI gut tut und unsere Probleme löst oder uns das Leben erleichtert, weiß nicht 🙁
Der Mensch hat Geist. Er hat ja KI erschaffen.
KI ist eh geil aber ob sie uns Menschen glücklicher macht muss nicht sein.
Ich bin da vielleicht altmodisch aber ich halte noch was von echten Büchern und echten CDs.
 

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.800
Ich meine wir sind Menschen. Wir haben Intelligenz geschenkt bekommen. Ob uns die KI gut tut und unsere Probleme löst oder uns das Leben erleichtert, weiß nicht 🙁

Wenn es sich überhaupt um KI handelt, was als KI verkauft wird.
Das britische Softwareunternehmen Builder.ai meldete im Mai 2025 Insolvenz an. Wie sich jetzt abzuzeichnen scheint, gab es sich überhaupt keine durch KI generierte Software, die Builder.ai lieferte. Vielmehr handelte es sich um die Ergebnisse der Arbeit von 700 menschlichen Programmierern, hauptsächlich in Indien:
Das britische Softwareunternehmen Builder.ai, das 2023 mit über 250 Mio. US-$ bewertet wurde und unter anderem Investitionen von Microsoft erhielt, steht nach seiner Insolvenz im Mai 2025 im Fokus von Untersuchungen.
Hintergrund sind erhebliche Diskrepanzen zwischen der öffentlichen Darstellung und der tatsächlichen Leistung der Plattform: Statt auf weitgehend automatisierte Prozesse mit künstlicher Intelligenz beruhte ein Großteil der Entwicklungsarbeit auf manueller Programmierung durch rund 700 Entwickler:innen, überwiegend in Indien.
Quelle: Forbes: 700 Entwickler statt vollautomatisierter KI

Die KI steckt in einer selbst geschaffenen Blase, die ziemlich bald platzen wird. Nicht nur sind die Resultate von KI zu fehlerhaft, mangelt es ihnen an Kontinuität, hat zu große Sicherheitslücken und ist praktisch nicht zu warten. KI ist auch viel zu teuer, verbraucht zuviele Ressourcen. KI ist schlicht nicht profitabel und kostet weit mehr, als sie einbringt. Es ist nur eine Frage der (kurzen) Zeit, wann die Investorengelder aufgebraucht sind und entweder Geld nachgeschoben werden muss für eine instabile Technologie oder KI sich in heisse Luft auflöst, weil das Geld alle ist.
 

Popocatepetl

Inquisitor
27. August 2013
7.670
nur wegen einiger schwarzer schafe, die beim hype abkassieren wollen, würde ich nun nicht auf das generelle scheitern von KI im gesamten schließen...
 

Ein wilder Jäger

Barbarisches Relikt
Teammitglied
18. November 2007
22.676
Die KI steckt in einer selbst geschaffenen Blase, die ziemlich bald platzen wird. Nicht nur sind die Resultate von KI zu fehlerhaft, mangelt es ihnen an Kontinuität, hat zu große Sicherheitslücken und ist praktisch nicht zu warten. KI ist auch viel zu teuer, verbraucht zuviele Ressourcen. KI ist schlicht nicht profitabel und kostet weit mehr, als sie einbringt. Es ist nur eine Frage der (kurzen) Zeit, wann die Investorengelder aufgebraucht sind und entweder Geld nachgeschoben werden muss für eine instabile Technologie oder KI sich in heisse Luft auflöst, weil das Geld alle ist.
Irgendwohin muß unser Wohlstand aber verschwinden, sonst stehen wir irgendwann alle mit einem Häuschen und einem Auslandsurlaub im Jahr da und sind zufrieden oder so.
 

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.800
Irgendwohin muß unser Wohlstand aber verschwinden, sonst stehen wir irgendwann alle mit einem Häuschen und einem Auslandsurlaub im Jahr da und sind zufrieden oder so.

Es hat im Zeitraum der letzten 25 Jahre so einige Blasen gegeben; manche davon haben sich durchaus als erfolgreich erwiesen, andere nicht und sind geplatzt.
Auch Amazon war einige Jahre lang in den tiefroten Zahlen, Zahlen in der Größenordnung von Milliarden. Das Konzept dahinter bestand vor allem darin, durch ein aggressives und rapides Wachstum schnell der Marktführer zu werden, ein globaler Marktführer, der irgendwann so groß und so mächtig ist, dass mit ihm nicht mehr konkurriert werden kann - durch Gelder von Investoren und unter der vorläufigen Vermeidung von Gewinnen und Ausschüttungen.

Bei Amazon hat das so funktioniert. Andere haben später dieses Konzept zu kopieren versucht, das Unternehmen "wework" etwa (Büro-Cluster-Konzept) und dabei spektakuläre Pleiten hingelegt (die größte Startup-Pleite überhaupt mit ca. 45 Mrd. US$). Aber auch andere Überflieger der frühen Jahre des Internets existieren heute praktisch nicht mehr (wer interessiert sich heute schon noch für Yahoo!?).
Seitdem schielen viele Investoren auf "das neue Google, das neue Amazon, das neue Facebook", mit dem Ziel, mit diesem oder ähnlichen Konzepten schnell reich zu werden - und dem vorhandenen Risiko, den gesamten Einsatz auch ebenso schnell wieder zu verlieren.

Bei wework war irgendwann klar, dass das Konzept ökonomisch nicht aufgehen würde. Es wurden ständig Investorengelder nachgeschoben, es gab ein ständiges Wachstum, aber genauso kontinuierlich wurden steigende Verluste gemacht, die von den Gewinnen nicht wett gemacht wurden. In der letzten Phase wurden überhaupt nur noch deshalb Gelder nachgeschoben, weil wework anderenfalls sofort hätte Insolvenz anmelden müssen.

Die KI kann ihre eigenen Vorhersagen nicht erfüllen. Die Entwicklung neuer und der Betrieb neuer KIs, ohnehin schon ein sündhaft teures Unterfangen, führt zu keinen echten Weiterentwicklungen. Die letzte Version von ChatGPT war doppelt oder dreimal so teuer wie ihr Vorgänger, zeigt aber keine echten Verbesserungen. Weiterhin "erfindet" oder "halluziniert" die KI etwas, und bei Google hat die KI einfach mal so ein umfangreiches Softwarepaket ohne Rückfragen gelöscht - die Arbeit vieler menschlicher Entwickler von Monaten. Auf Rückfrage antwortete die KI so etwas wie "Ups, da habe ich wohl eine katastrophale Fehlentscheidung gemacht", und das war es dann.
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.736
Die KI kann ihre eigenen Vorhersagen nicht erfüllen.

Mal ein ganz anderer Ansatz zur Zukunft der KI.

Im Prinzip ist die KI ein Werkzeug. Etwas klüger, komplexer, teuerer und moderner vielleicht, aber im Endeffekt nichts anderes als ein Hammer oder eine Dampfwalze.

Wer ist für die Ergebnisse, die mit einem Hammer oder einer Dampfwalze erzielt werden, verantwortlich? Natürlich in erster Linie derjenige, der diese Werkzeuge sachgerecht oder auch nicht einsetzt. Ein Hammer zahlt keinen Schadenersatz, wenn etwas schief geht, und es macht auch keinen Sinn, eine Dampfwalze in den Knast zu stecken.

Und exakt das Gleiche gilt auch für eine KI. Ein Hammer ist in seiner Funktion und den Folgen seines Einsatzes leicht zu überblicken. Bei einer KI weiß keiner, wie sie nach dem Anlernen genau konfiguriert ist und was für Überraschungen sie parat hält. Damit ist es grundsätzlich fahrlässig, sie ungeprüft zu verwenden. Wer will für so etwas haftbar sein? Das heißt, aus Haftungs- und Verantwortlichkeitsgründen ist ein Stück konventioneller Software, deren Verhalten genau bekannt und vorhersagbar ist, in jeden Falle sinnvoller.

Das heißt also, die KI wird absehbar über eng begrenzte Hiwitätigkeiten nicht herauskommen. Aber „Hier sind 100 000 Leserbriefe - lies die mal und sortiere alle heraus, die einen Diesel fahren und gleichzeitig Habeck für einen Schwachkopf halten.“. Hier sind 500 Presseartikel zur Energiewende. Untersuche, ob das Framing „Regenerative Energie“ in Verruf gerät. Das wären doch Aufgabenstellungen, die man sich richtig gut für eine KI vorstellen kann.

Und so etwas braucht natürlich - etwa wenn anlasslos die Kommunikation auf allen Handies fernüberwacht werden soll - auch enorme Recheneistung. Insofern bin ich alles andere als begeistert, wie sehr im Zusamenhang mit der KI in einen groß angelegten Ausbau der Rechnerleistung investiert wird. Ich bezweifle sehr, dass da etwas für den Bürger Gutes und Wünschenswertes herauskommt.
 

Popocatepetl

Inquisitor
27. August 2013
7.670
hab neulich jemanden getroffen, der lässt sich die prompts für KI X von KI Y erstellen, da KI X nicht versteht was er von ihr will..... :D
 

Notwehr

Geselle
1. Februar 2026
26
Ich frage mich ob KI so ein großartiger Fortschritt für uns Menschen auf diesem Planeten ist. Vielleicht sollten wir lieber an Anderem arbeiten. Zum Beispiel Kriege unterlassen und nicht Menschen unterdrücken
 

Ein wilder Jäger

Barbarisches Relikt
Teammitglied
18. November 2007
22.676
Ich hatte heute Einblick in eine Hausarbeit. Bringt mich jetzt bitte nicht auf das Thema Prüfungsordnungen, aber es war der Nachweis einer Studienleistung gefragt. Normalerweise würde man das über eine Anwesenheitspflicht lösen, das war aber unzulässig, also stattdessen Zusammenfassung eines Artikels zum Thema.

Nach meinem bescheidenen Dafürhalten hat der Student das dadurch gelöst, daß er eine KI den englischen Text hat zusammenfassen lassen, um dann in einem weiteren Schritt dieselbe oder eine andere KI mit der deutschen Übersetzung zu betrauen. Das Ergebnis ist ein Text mit dreimal mehr und dreimal sinnloseren Fremdwörtern als im Deutschen üblich, mit einer gestelzten, eher lyrischen Ausdrucksweise, teils wie aus dem 19. Jahrhundert, eigenartiger Syntax und schlichten Grammatikfehlern. "Unik" kann man natürlich schreiben, versteht jeder. Ist halt ein translitteriertes "unique". Wer macht so etwas? Gruseliges Deutsch also, aber, wenn tatsächlich maschinenübersetzt, sehr viel besser geworden.

Viel bemerkenswerter ist aber imho, daß das sinnerfassende Lesen vollkommen danebengegangen ist. Man stelle sich vor, man hätte einen Text mit einer etwas ausladenden Einleitung, Begriffserklärungen, Beispielen, einem historischen Rückblick und einem Kerngedanken, und das alles wird Stück für Stück stur um 70% gekürzt. Übrig bleiben 30% von jedem Absatz, und der Kerngedanke ist leider weg. Er ist noch erkennbar, weil Betrachtungen über seine Einzelaspekte noch da sind, aber er selbst ist weg.

Das fühlt sich für mich sehr nach KI an. Die KI kann Sprache und Worte in gefälliger Weise arrangieren, aber sie kann keinen Sinn erfassen.
 

Notwehr

Geselle
1. Februar 2026
26
Ich hatte heute Einblick in eine Hausarbeit. Bringt mich jetzt bitte nicht auf das Thema Prüfungsordnungen, aber es war der Nachweis einer Studienleistung gefragt. Normalerweise würde man das über eine Anwesenheitspflicht lösen, das war aber unzulässig, also stattdessen Zusammenfassung eines Artikels zum Thema.

Nach meinem bescheidenen Dafürhalten hat der Student das dadurch gelöst, daß er eine KI den englischen Text hat zusammenfassen lassen, um dann in einem weiteren Schritt dieselbe oder eine andere KI mit der deutschen Übersetzung zu betrauen. Das Ergebnis ist ein Text mit dreimal mehr und dreimal sinnloseren Fremdwörtern als im Deutschen üblich, mit einer gestelzten, eher lyrischen Ausdrucksweise, teils wie aus dem 19. Jahrhundert, eigenartiger Syntax und schlichten Grammatikfehlern. "Unik" kann man natürlich schreiben, versteht jeder. Ist halt ein translitteriertes "unique". Wer macht so etwas? Gruseliges Deutsch also, aber, wenn tatsächlich maschinenübersetzt, sehr viel besser geworden.

Viel bemerkenswerter ist aber imho, daß das sinnerfassende Lesen vollkommen danebengegangen ist. Man stelle sich vor, man hätte einen Text mit einer etwas ausladenden Einleitung, Begriffserklärungen, Beispielen, einem historischen Rückblick und einem Kerngedanken, und das alles wird Stück für Stück stur um 70% gekürzt. Übrig bleiben 30% von jedem Absatz, und der Kerngedanke ist leider weg. Er ist noch erkennbar, weil Betrachtungen über seine Einzelaspekte noch da sind, aber er selbst ist weg.

Das fühlt sich für mich sehr nach KI an. Die KI kann Sprache und Worte in gefälliger Weise arrangieren, aber sie kann keinen Sinn erfassen.
Nun ja
Ob uns KI intelligenter macht… 🙁
Wir sollten uns schon geistig weiterentwickeln. Und wir sollten ernstere Probleme lösen auf unserem Planeten. Vielleicht haben die Entwickler von KI zu viel Zeit und zu viel Geld.
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.736
Das fühlt sich für mich sehr nach KI an. Die KI kann Sprache und Worte in gefälliger Weise arrangieren, aber sie kann keinen Sinn erfassen.

Aber das wäre doch eigentlich genau das, was man als Intelligenz bezeichnen würde. Merkwürdig.

Als unser Messias in Spe den Spleen entwickelt hat, nur eine KI dürfe ihn kritisieren, hatte ich ja ein paar Stellungnahmen bei einer KI erfragt und dabei noch ein paar weitere Erfahrungen gemacht (und ich glaube, auch nochmal separat zusammengefasst): Die KI ist offensichtlich sehr leicht auf dem falschen Fuß zu erwischen, da sie nur ein relativ geringes Wissen hat und sich erstmal das meiste, was an Hintergrundwissen in der jeweiligen Diskussion erforderlich ist, herleiten oder auch gesagt bekommen muss.

Und - blödes Beispiel dafür: Wenn einfach die Information fehlt, was Wundheilung kann und was nicht, ist es durchaus nicht dumm, den Verlust eines Fingers als weniger schlimm als eine Hautabschürfung zu betrachten, weil bei letzterer die Wunde großflächiger ist. So lange Du nicht weißt, ob die KI diese Information zur Wundheilung hat oder nicht, sollte man alles, was sie zu Verletzungsrisiken sagt, besser in die Tonne treten. Und voraussetzen kann man da nichts - die KI hat schließlich keinen Körper.

Aber das würde heißen, dass man sich eine ganze Weile mit der KI unterhalten muss, um sicher sein zu können, dass sie wirklich alles weiß, was sie wissen muss, um zu einem zutreffenden Urteil zu kommen. Und genau das war auch mein Eindruck, als ich der KI nacheinander ein paar Beiträge aus einer Diskussion mit unserem Messiasaspiranten zum Auswerten gab: Je mehr unterschiedliche Standpunkte die KI gelesen hat, desto besser und qualifizierter wurden auch ihre Stellungnahmen dazu.

Die KI verhält sich da im Prinzip nicht anders als ein gelehriges Kind *). Und da kann ich mir durchaus vorstellen, dass auch ohne weiteres so etwas wie die von Dir geschilderte Hausarbeit dabei herauskommen kann. Wenn eben genug natürliche Dummheit vor der künstlichen Intelligenz sitzt und damit herumdilletiert. Das Ganze ergibt aber eine neue Antwort auf die Frage nach den Gefahren der KI: Dass die wirkliche Gefahr eigentlich weniger die KI ist, als der Dummkopf, der mit ihr herummurkst.




———————-
*) Auch den Kritikpunkt, die KI einfach nur jedem Recht gäbe, habe ich übrigens fallen gelassen. Es ist ja tatsächlich so, dass, wenn sich vernünftige Menschen nicht einig sind, sich meistens auch beide Standpunkte vernünftig anhören. Probleme, sich dazu zu positionieren, sind eher ein Zeichen, dass man einfach noch nicht genug weiß. Oder die Frage falsch gestellt ist, wenn sowohl eine Antwort, als auch ihr Gegenteil stimmen.

Und ich hatte auch mal die Probe aufs Exempel gemacht und der KI versucht klar zu machen, dass die Summe der Winkel in einem Kreis immer 180 Grad beträgt. Keine Chance, da war die KI unbestechlich und es war ihr auch völlig wurst, was ich gerne gehört hätte.
 
Zuletzt bearbeitet:

Lupo

Ritter Kadosch
3. Oktober 2009
6.736
Spaßenshalber habe ich mal die Opera AI um eine Stellungnahme zu den Beiträgen #30 und #32 gebeten. Hier eine ganz ultrakurze Zusammenfassung.

Zusammenfassung​

  • „Ein wilder Jäger“ zeigt praxisnahe Risiken: Qualitätsverlust, Täuschungspotenzial durch unkritische KI-Nutzung.
  • „Lupo“ hebt die Bedeutung der Nutzerkompetenz hervor, warnt aber auch vor der Überschätzung der KI.
  • Die Verantwortung liegt nicht allein beim Nutzer, sondern auch bei Entwicklern und Institutionen, Systeme transparenter, nachvollziehbarer und sicherer zu gestalten.
  • Die Gefahren sind nicht nur unkundige Nutzer, sondern auch systemische Risiken wie Fehlinformationen, Bias, ökonomische Fehlanreize und Datenschutzprobleme.

Interessant der vierte Punkt. Ich würde es z.B. für einen Benutzerfehler halten, wenn die KI zum Beispiel durch Trainingsdaten mit Bias verkorkst wird. Die KI sagt natürlich mit Recht, dass, wenn etwa zu einem Thema nur Mist im Internet zu finden ist, die KI natürlich auch nur Mist lernt. Aber das ist natürlich Definitionssache. Die KI sagt natürlich, dass ein Fehler, der auftreten kann, ohne dass der Benutzer etwas falsch macht, kein Benutzerfehler ist.

Philosophie eben: Natürlich macht der Benutzer keinen Fehler, wenn das Auto untergeht, weil es nicht schwimmfähig gebaut ist. Aber er macht einen groben Benutzerfehler, wenn er das Auto ins Wasser fährt.

Aber aus dem Punkt heraus ist dann natürlich auch der dritte Punkt bedeutsam. Transparenz, Nachvollziehbarkeit, Sicherheit. Hier sollte man auch das nutzen, was der Entwickler bereits vorgesehen hat. Auch ruhig mal fragen "Wie kommst Du da drauf?" und nicht alles als göttliche Weisheit hinnehmen. Und auch das Thema gerne etwas weiträumiger oder ausführlicher besprechen, Fragen komplex gestalten usw. Dabei aber auch nicht übertreiben, auch die KI steigt aus, wenn man zu sehr abschweift.

Und was die Rolle der KI betrifft, sind wir uns auch einig geworden.

Lupo: Genau das meinte ich mit "Werkzeug". Ein Hilfsmittel, die Verantwortung bleibt beim Anwender.

KI: Genau so ist es: KI ist ein mächtiges Hilfsmittel, ein Werkzeug, das Menschen unterstützt, aber nicht ersetzt. Die Verantwortung für den Einsatz, die Kontrolle der Ergebnisse und die daraus folgenden Entscheidungen liegt immer beim Anwender. Gleichzeitig brauchen wir Transparenz, Nachvollziehbarkeit und Sicherheitsmaßnahmen seitens der Entwickler und Institutionen.

KI: Diese klare Rollenverteilung ist zentral, um Risiken zu minimieren und den Nutzen von KI verantwortungsvoll zu gestalten. KI kann komplexe Aufgaben erleichtern, aber ohne menschliche Urteilsfähigkeit, ethische Reflexion und kritische Prüfung bleibt sie nur ein Werkzeug – so wie ein Hammer oder eine Dampfwalze.

Und damit bin ich auch wieder genau da, wo ich meinen vorigen Beitrag beendet habe: Eigentlich habe ich weniger Angst vor der künstlichen Intelligenz eines Rechners als vor Dummheit und Missbrauch bei deren Anwendung.
 

Rülspmin

Geheimer Meister
11. April 2025
131
Ganz wundervoller Beitrag und das Geschriebene unterstreich ich doppelt, aber ich möchte lediglich anmerken, dass wir von llm sprechen und nicht von "k.i." - aber ich denke das jene Formulierung sich einfach durchgesetzt hat, womit ich jetzt wahrscheinlich nur pedantisch rüberkomme
 

Ein wilder Jäger

Barbarisches Relikt
Teammitglied
18. November 2007
22.676
Deine KI hat mich eigtl. schön zusammengefaßt, war ja auch ein kurzer Text, aber ich habe keine Wort von Täuschungspotential geschrieben, denn auf Täuschungsmöglichkeiten kam es mir gar nicht an. Zwischen den Zeilen hätte man eher lesen können, daß ich das Täuschungspotential für eher gering und den charakteristischen Stil der Zusammenfassung und Übersetzung für verräterisch halte. Ich weiß auch nicht, ob "Qualitätsverlust" eine gute Zusammenfassung von dem ist, was ich zu sagen versucht habe. Inwiefern Qualitätsverlust? Seminararbeiten sind auch dann oft nicht besonders gut, wenn sie von echten lebenden Studenten geschrieben werden. Kern meines Beitrages sollte eigtl. sein, daß die KI den Kern, die Aussage des Artikels nicht in ihrem Sinn gemäß hat erfassen können und gekürzt hat, ohne zu verstehen. Man könnte sagen, daß das bei näherem Hinsehen Deiner KI jetzt auch passiert ist, Lupo.
 

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.800
Im Prinzip ist die KI ein Werkzeug. Etwas klüger, komplexer, teuerer und moderner vielleicht, aber im Endeffekt nichts anderes als ein Hammer oder eine Dampfwalze.

Wer ist für die Ergebnisse, die mit einem Hammer oder einer Dampfwalze erzielt werden, verantwortlich? Natürlich in erster Linie derjenige, der diese Werkzeuge sachgerecht oder auch nicht einsetzt. Ein Hammer zahlt keinen Schadenersatz, wenn etwas schief geht, und es macht auch keinen Sinn, eine Dampfwalze in den Knast zu stecken.

Ehrlich gesagt greift mir das zu kurz.
Moderne Maschinen z.B. sind heutzutage mit Sicherungen ausgestattet, die das Verletzungsrisiko vermindern oder ganz auf Null senken. Man könnte sich aber auch auf den Standpunkt stellen und sagen: Das brauchen wir alles nicht, es ist ja eh nur der Nutzer, der die Maschine falsch bedient. Wie eine Wäscheschleuder aus den 1950er Jahren, deren Deckel sich heben lässt, noch während sie läuft - und dafür steht innen auf dem Deckel in roter Schrift: "Achtung! Nicht in die laufende Trommel greifen!"
Es wird immer jemanden geben, der eine Technologie falsch oder fahrlässig anwendet - es sei denn man verhindert, dass jemand dies überhaupt nur mehr tun kann.

Das Ergebnis ist ein Text mit dreimal mehr und dreimal sinnloseren Fremdwörtern als im Deutschen üblich, mit einer gestelzten, eher lyrischen Ausdrucksweise, teils wie aus dem 19. Jahrhundert, eigenartiger Syntax und schlichten Grammatikfehlern.

Dem Studenten sollte man das weitere Studieren verweigern, und zwar wegen erwiesener Dummheit. Denn ein jeder sollte nach nur einmaligem Überfliegen des Textes schnell erkennen: Nein, das kann ich so nicht abliefern. Denn das ist ja grottenschlecht.

Aber das würde heißen, dass man sich eine ganze Weile mit der KI unterhalten muss, um sicher sein zu können, dass sie wirklich alles weiß, was sie wissen muss, um zu einem zutreffenden Urteil zu kommen. Und genau das war auch mein Eindruck, als ich der KI nacheinander ein paar Beiträge aus einer Diskussion mit unserem Messiasaspiranten zum Auswerten gab: Je mehr unterschiedliche Standpunkte die KI gelesen hat, desto besser und qualifizierter wurden auch ihre Stellungnahmen dazu.

Im Grunde handelt es sich um den bereits seit langem gepflegten und finanzierten Trugschluss oberflächlicher, amerikanischer Tech-Barone, alles würde schon leistungsfähiger und besser werden, solange man nur mehr Daten sammelt und mehr Rechenleistung einsetzt. Aber aus einem Gedächtniskünstler wird nicht zwingend ein Nobelpreisträger und einer, der gut Kopfrechnen kann, versteht nicht zwingend etwas von Mathematik.
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.736
Ehrlich gesagt greift mir das zu kurz.
Moderne Maschinen z.B. sind heutzutage mit Sicherungen ausgestattet, die das Verletzungsrisiko vermindern oder ganz auf Null senken. Man könnte sich aber auch auf den Standpunkt stellen und sagen: Das brauchen wir alles nicht, es ist ja eh nur der Nutzer, der die Maschine falsch bedient. Wie eine Wäscheschleuder aus den 1950er Jahren, deren Deckel sich heben lässt, noch während sie läuft - und dafür steht innen auf dem Deckel in roter Schrift: "Achtung! Nicht in die laufende Trommel greifen!"
Es wird immer jemanden geben, der eine Technologie falsch oder fahrlässig anwendet - es sei denn man verhindert, dass jemand dies überhaupt nur mehr tun kann.

Mir ging es nur um die Haftungsfrage und das daraus entstehende unternehmerische Risiko.

Und da sind alle diese Fragen, auf die Du reflektierst, irrelevant. Wenn Du eine KI-basierte Dienstleistung erbringst, bist Du dafür genauso verantwortlich und haftbar, als würdest Du sie mit Hammer, Dampfwalze oder der Kraft Deiner Gedanken erledigen. Ich hätte da als Geschäftsführer, Qualitätsmanager oder auch Firmenjurist ärgste Bauchweh, wenn ich eine KI verwenden würde, die sich fortlaufend selbst neu programmiert und von der ich letzten Endes gar keine Ahnung habe, was sie eigentlich gemacht hat. Weil sich das schön unter „grob fahrlässig“ subsummieren lässt.

Dafür muss man nicht sehr tief in die Grundüberlegungen zur Maschinensicherheit einsteigen. Als Hersteller der KI würde ich übrigens in meiner Programmdokumentation jeden ernsthaften und professionellen Gebrauch untersagen. Nicht, dass irgend ein Idiot mit Hilfe der KI so ein Ding wie dieses implodierte Tauchboot aus GfK baut und ich dann eine Rente an die Hinterblieben zahlen darf ….

Damit reduziert sich die Sache automatisch auf eine Art Spielzeug. Und daher blieb eigentlich die Frage übrig, von denn nun eigentlich das große Anwendungsgebiet für die KI zu suchen sein, für die jetzt riesige Rechenzentren gebaut werden. Das sind ja Riesen-Investitionen, die sich wohl kaum für Spielzeuge rechnen werden. Wfür also. Und fällt mir spontan wirklich nur Überwachung ein.
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.736
Deine KI hat mich eigtl. schön zusammengefaßt, war ja auch ein kurzer Text, aber ich habe keine Wort von Täuschungspotential geschrieben, denn auf Täuschungsmöglichkeiten kam es mir gar nicht an. Zwischen den Zeilen hätte man eher lesen können, daß ich das Täuschungspotential für eher gering und den charakteristischen Stil der Zusammenfassung und Übersetzung für verräterisch halte. Ich weiß auch nicht, ob "Qualitätsverlust" eine gute Zusammenfassung von dem ist, was ich zu sagen versucht habe. Inwiefern Qualitätsverlust? Seminararbeiten sind auch dann oft nicht besonders gut, wenn sie von echten lebenden Studenten geschrieben werden. Kern meines Beitrages sollte eigtl. sein, daß die KI den Kern, die Aussage des Artikels nicht in ihrem Sinn gemäß hat erfassen können und gekürzt hat, ohne zu verstehen. Man könnte sagen, daß das bei näherem Hinsehen Deiner KI jetzt auch passiert ist, Lupo.

Nö, das ist nicht „meine“ KI, aber die wird kostenlos mit Opera mitgeliefert. Auf Grok habe ich mangels Account bei X keinen Zugriff, und chatGPT ist mir zu umständlich aufzurufen und versucht ständig, einem irgendwelche Abonnements aufzuschwätzen.

Du kennst Deine Texte besser als ich, von daher ist mir gar nicht aufgefallen, dass er auch in Deinem Beitrag ein bisschen sinnentstellend umformuliert hat. Auch der letzte zitierte Satz der KI:

KI kann komplexe Aufgaben erleichtern, aber ohne menschliche Urteilsfähigkeit, ethische Reflexion und kritische Prüfung bleibt sie nur ein Werkzeug – so wie ein Hammer oder eine Dampfwalze.

stimmt jetzt so nicht. Es stand ja nie zur Debatte, ob die KI „nur“ ein Werkzeug ist oder so viel mehr sein könnte. Eigentlich ist „Werkzeug“ ja auch nicht steigerungsfähig.

Ich finde diese kleinen Fehler durchaus interessant, diese KI weicht ja nicht wirklich weit von der richtigen Richtung ab. Ist das jetzt einfach wirtschaftlich so, und diese KI ist nunmal kein Präzisionsinstrument? Oder ist das schon eine Vorstufe zum Halluzinieren? (Das mich sehr an die Bildung von Artefakten bei der Bildkomprimierung erinnert).

Dem werde ich mal näher auf den Zahn fühlen.
 
Zuletzt bearbeitet:

Giacomo_S

Ritter des Heiligen Andreas von Schottland
13. August 2003
4.800
Damit reduziert sich die Sache automatisch auf eine Art Spielzeug. Und daher blieb eigentlich die Frage übrig, von denn nun eigentlich das große Anwendungsgebiet für die KI zu suchen sein, für die jetzt riesige Rechenzentren gebaut werden. Das sind ja Riesen-Investitionen, die sich wohl kaum für Spielzeuge rechnen werden. Wfür also. Und fällt mir spontan wirklich nur Überwachung ein.

Ja, schon möglich, ich möchte Überwachung nicht ausschließen.
Andererseits überwacht die NSA seit 9/11 doch ohnehin bereits den gesamten weltweiten Datentransfer, was sollten sie dann denn durch KI noch finden wollen, was sie nicht so oder so schon finden? Sicher auch jetzt schon mit KI?

Ausschließen möchte ich jedoch auch nicht, dass es sich um eine Riesenblase handelt. Es werden Riesen-Investtitionen getätigt, weil das Geld dafür schlicht vorhanden ist; die Tech-Unternehmen haben doch so oder so schamlos viel Geld auf der hohen Kante. Nicht immer sind auch große Investitionen wirklich recherchiert und durchdacht. Der Fall "wework" ist dafür ein gutes Beispiel, schau Dir mal Dokus dazu an: Da investiert ein Investor nach einem Gespräch von 12 Minuten + einer Autofahrt mit dem CEO des StartUps aus einer Art "Bauchgefühl" mal eben so gute 4 Mrd. US$, einfach weil ihm die Schneidigkeit und das Charisma des CEO zusagt ...

Möglicherweise gibt es die konkreten Anwendungen für die KI auch überhaupt noch gar nicht. Auch das hat es schon gegeben. Die Blockchain-Technologie z.B. hat (außer Kryptowährungen) keine konkrete Anwendung (oder genauer: Keine Anwendung, die sich nicht mit einfacherer Technologie auch genauso lösen ließe). Trotzdem fließt Geld in die Blockchain-Technologie. Man hofft und vertraut einfach darauf, dass sich die Anwendungen schon finden lassen und ergeben werden, wenn die Technologie vorhanden ist.
 

Lupo

Ritter Kadosch
3. Oktober 2009
6.736
Möglich. Aber insgesamt würde es mich selbst, wenn es eine Blase sein sollte, die mit einem dumpfen „Poff“ implodiert, doch beunruhigen, wenn da jede Menge leicht zu missbrauchende Hardware ohne so richtigen Verwendungszweck herumsteht.

Nur so‘n Gefühl.
 

Ähnliche Beiträge

Oben Unten