KI in der freien Wildbahn

Gerade reingekommen (derstandard.at): Tesla muss 243 Millionen Dollar wegen eines tödlichen Autopilot-Unfalls zahlen

Den Artikel müsst Ihr nicht lesen, steht nicht viel drin: Der eigentlich Fall ist aus 2019, ein Gericht hat jetzt gerade Tesla zu 43 Mio USD Schadenersatz und 200 Mio USD Strafe verurteilt. Das Urteil ist nicht rechtskräftig, Tesla will in Berufung gehen.
Finde ich auch richtig so. Solange KI noch nicht ausreichend sicher funktioniert, sollte man im oeffentlichen Strassenverkehr bis zu maximal Automatisierungsgrad 2 zulassen (Teilautomatisiert, ein Fahrer muss das System dauerhaft überwachen und im Zweifelsfall eingreifen).

Ich meine, dass in immer mehr Städten in China bereits Level 4-Autos unterwegs sind. Diese Zukunft ist also nicht mehr allzu fern.
Ja in Staedten ist sowas einfacher umzusetzen. Dort ist alles miteinander vernetzt und die Fahrzeuge fahren ueberwiegend auf festgelegten Routen, teilweise auf eigenen Fahrwegen. Hier ist reine Abstandsmessung und evtl. Kollisionswarnung ausreichend und die maximale Hoechstgeschwindigkeit liegt in Staedten auch zwischen 25 km/h und 40 km/h und in seltenen Faellen bei maximal 50 km/h. Auf chinesischen Autobahnen und Landstrassen wird das in China vermutlich auch nur max. Level 2 sein, wobei die Hoechstgeschwindigkeit bei max. 120 km/h auf Autobahnen und max. 80 km/h auf Landstrassen liegt.
 
Die autonome Stadtbusse in Hamburg bekommen 60km/h Limit - zur Testphase(!) noch mit einem Aufpassen-Nichtfahrer, sollen ein paar Monate spaeter aber alleine losgelassen werden.
 
Zum Thema autonomes Fahren: Eigentlich sollte das Ziel ja sein, dass das KI Auto weniger gefährlich ist, als der Mensch. Und ich denke an diesem Punkt könnte man schon angekommen sein.
 
Eigentlich sollte das Ziel ja sein, dass das KI Auto weniger gefährlich ist, als der Mensch. Und ich denke an diesem Punkt könnte man schon angekommen sein.
Das Problem ist, das das alleine für Akzeptanz (in der Gesellschaft) nicht reicht. Die Technik wird deutlich besser sein als der Mensch, damit Akzeptanz da ist. Seltsamerweise werden Fehler von Menschen eher akzeptiert als Fehler von Maschinen.

Ein zweites Problem könnte sein:
Auch eine KI kann die Physik nicht außer Kraft setzen (Bremsweg etc.). Und Stand heute mit menschlichen Fahrern ist es so, das eigentlich zu schnell / zu risikofreudig gefahren wird und man in vielen Situationen gar nicht angemessen reagieren könnte, aber es halt auch zugegebenermaßen vergleichsweise wenig dazu kommt.
Ein Ki-Autofahrer wird aber eher auf Sicherheit setzen (müssen) und damit zum Teil deutlich langsamer sein. Ein Fahrer der das vom selber fahren noch anders (flotter) gewohnt ist, wird es dementsprechend als sehr lahmarschig empfinden und sich häufig sagen: Na ich fahr doch lieber selbst.

Warum sich dann autonomes Fahren trotzdem durchsetzen wird ist, weil einfach viele kein Bock darauf haben werden selbst zu fahren und lieber sich chauffieren lassen und in der Zeit was anderes machen zu können.

Zum Thema Cloud-LLM vs. selfhosted-LLM:
Die Cloud-Dinger a-la Chat-GPT haben natürlich den Vorteil, das sie leistungsfähiger und schneller sind. Allerdings hast Du auch immer das Privacy-Problem und meist selbst sie auch sehr moderiert. Vermutlich wird auch der Trend bei den Cloud-KIs dazu gehen, das die Betreiberfirmen immer mehr eigene Interessen verfolgen werden. So wie wir jetzt schon bei der normalen Suche "sponsored Links" etc. haben, so wird künftig halt bei KI-Anworten immer gleich das passende Produkt empfohlen.

Selfhosted bewahrt einem da eine gewisse Unabhängigkeit. Und das Geschwindigkeitsproblem ist auch deutlich verringert durch die Mixture-Of-Experts-Modelle verringert (in dem dann halt nur die "Hirnareale" aktiviert sein müssen die für den ggf. Input relevant sind).

Gesamtgesellschaftliche Auswirkung:
Schwierig vorherzusagen. Was Arbeitsplätze angeht: Automatisierungen in der Vergangenheit schafften auch immer neue Arbeitsplätze. Klassisches Beispiel sind ja zum Beispiel mechanische Webstühle die zwar die Weber arbeitslos machten aber ein Vielfaches an Arbeitsplätzen in der Textilindustrie schuf. Allerdings ist das nicht bei jeder Technologie so.

Allerdings ist das ja auch ne Chance: Nachdem uns die Mechanisierung weitgehend von schwerer körperlicher Arbeit befreit hat, könnte uns ja die KI von geistiger Arbeit befreien und wir können die gewonnene Freizeit für angenehmere Dinge nutzen.
Das Problem ist eher woanders: Unser System ist voll darauf ausgelegt, das Menschen arbeiten gehen (Geld verdienen, Steuern und Abgaben zahlen mit allem was da an langem Rattenschwanz mit dran hängt).

Wenn das nicht mehr funktioniert, bedarf es einem radikalen Umbau der Gesellschaft und des Wirtschaftssystems. Das wird nicht einfach, weil es auch auf Widerstände stoßen wird und es auch keine wirklich guten und erprobten Alternativen gibt. Zumindest die Übergangszeit wird sehr hart und mit ungewissen Ausgang. Denn daneben haben wir ja noch all die anderen Krisen mit Krieg, Klimawandel und was es sonst noch alles zu bewältigen gilt.
 
Das Problem ist eher woanders: Unser System ist voll darauf ausgelegt, das Menschen arbeiten gehen (Geld verdienen, Steuern und Abgaben zahlen mit allem was da an langem Rattenschwanz mit dran hängt).

Wenn das nicht mehr funktioniert, bedarf es einem radikalen Umbau der Gesellschaft und des Wirtschaftssystems. Das wird nicht einfach, weil es auch auf Widerstände stoßen wird und es auch keine wirklich guten und erprobten Alternativen gibt. Zumindest die Übergangszeit wird sehr hart und mit ungewissen Ausgang. Denn daneben haben wir ja noch all die anderen Krisen mit Krieg, Klimawandel und was es sonst noch alles zu bewältigen gilt.
Guter Punkt. Veraenderungen sind immer mit Aengsten verbunden. Verliere ich meinen Job? Verliere ich mein Haus/Auto/Besitz/Wohlstand? Verliere ich meine Freiheit? Eine solch grosse und gravierende Veraenderung wird zwangslaeufig auf Widerstand stossen (Amygdala und der Angriffs- und Fluchtreflex), da niemand die Auswirkungen auf die Wirtschaft und Gesellschaft vorhersehen kann. Sowas kann nur langsam und in kleinen Schritten umgesetzt werden und nicht innerhalb relativ kurzer Zeitraeume. Vermutlich laesst sich sowas aber in Krisenzeiten besser umsetzen. Grosse Veraenderungen wurden in der Vergangenheit eigentlich immer in Krisenzeiten durchgefuehrt.
 
Zuletzt bearbeitet:
Sowas kann nur langsam und in kleinen Schritten umgesetzt werden und nicht innerhalb relativ kurzer Zeitraeume.
Theoretisch hast Du Recht. Praktisch tritt halt das ein, was Du gesagt hast. Nämlich Widerstände.
Sieht man ja bei anderen Dingen auch. Denk nur allein an die Klimawandelgeschichte. Da wissen wir auch seit Jahrzehnten, das wir was tun müssen und das nichts zu tun immer die schlechtere Option ist. Und dann passiert wenig und selbst Lappalien wie das Heizungsgesetz führen zu massiven Widerstand.
Das andere Problem ist, das Veränderungen ja auch manchmal schnell kommen und das für "kleine Schritte" gar keine Zeit bleibt.

Grosse Veraenderungen wurden in der Vergangenheit eigentlich immer in Krisenzeiten durchgefuehrt.
Darauf wirds vermutlich hinauslaufen. Möglicherweise auch in Form einer Revolution. Insbesondere, wenns genügend Menschen gibt, die kaum noch was zu verlieren haben.

Aber auch für die "oberen Zehntausend" ist das durchaus ein Problem. Bisher profitieren Konzerne davon, das Menschen ihnen was abkaufen und die können sich das leisten, weil sie arbeiten gehen und Geld verdienen. Wenn aber irgendwann alle nur noch zugunsten von Automatisierung entlassen und keiner mehr einstellt, dann funktioniert halt dieses Modell nicht mehr.

Möglicherweise erleben wir ja eine Renaissance sozialistischer und kommunistischer Ideen. :-)
Maschinen erzeugen Produkte / Dienstleistungen und die werden dann an alle verteilt. :-)
Das heißt aber auch, das die bisherigen Machtstrukturen nicht mehr funktionieren.
Mal schauen, wie sich das entwickelt.
 
Ja, bisher sind es noch weitestgehend Assistenzsysteme, die Dich unterstützen. Da wird erwartet, dass die Fahrer:in jederzeit eingreift, wenn irgendein Bedarf auftaucht.
Das finde ich aber in der Tat schwierig.
Also für einen Menschen ist es relativ schwierig aufzupassen und wenn die Maschine macht, dann auch wachsam genug zu sein dann einzugreifen.
Daher ist auch völlig illusorisch, das das in der Praxis gut klappt.

Haftung bei Fehlern von KI wird auch interessant. Die KI Hersteller werden sich da absichern. Aber einer muß zum Schluß haften.
Das Problem haben wir ja schon ohne KI. Bei normalen Softwareproblemen haftet ja oftmals auch keiner.
Eigentlich müsste es so sein, das immer der der den KI-Kram einsetzt, auch erst mal haftet. Der kann sich dann überlegen, wie er sich gegenüber dem Hersteller absichert und vertraglich Dinge aushandelt. Aber zunächst sollte der mein Ansprechpartner sein.

Moralische Fragen wären auch schnell vom Tisch, eine KI soll sich so verhalten wie ein menschlicher Fahrer. Ich würde im fiktiven Beispiel wo ich mit 150 Sachen entweder in ne Gruppe Kinder oder in den Betonpfeiler fahren müsste, auch in die Kinder steuern..
Ich finde diese Frage eher theoretisch.
Im Idealfall sollte die KI erst gar nicht in die Verlegenheit kommen solche Enscheidungen fällen zu müssen. Weil dann ist vorher ja schon einiges schiefgelaufen (unangepasste Geschwindigkeit etc.).
Zu Unfällen kann es also eigentlich nur kommen, wenn das System (durch was auch immer) fehlerhaft arbeitet. Wenn es aber eh schon in einem Zustand ist, in dem es fehlerhaft ist und damit nicht mehr als zuverlässig angesehen werden kann , dann macht es ja eh kein Sinn mehr da auch noch ethische Entscheidungen abzuverlangen.

Bezüglich Haftung und Schuldfrage ändert sich eigentlich auch nicht viel. Ist letztlich nichts anderes, als wenn ich wegen einem Bremsdefekt irgendwo reinfahre. Wenn die Bremsen ne Fehlkonstruktion waren, haftet der Hersteller. Wenn ich an den Bremsen herum manipuliert habe, hafte ich. Wenn die Werkstatt bei der Inspektion Mist gebaut hat, dann die Werkstatt.
Insofern bringt hier KI nicht unbedingt was grundsätzlich Neues rein.
 
Was mir Llama3.1 mit dem 4GB Modell auf meinem Rechner als Ergebnisse anzeigt, zeigt, daß da Fakten von verschiedenen Sachverhalten durcheinandergeworfen werden.
Sprachmodelle sind ja ohnehin nicht primär auf Faktenwissen ausgelegt.
Die sind ja eigentlich in erster Linie dazu gedacht, natürliche Sprache zu "verstehen". Und das hat man eben über machine-learning gemacht und das System fürs Training einmal das ganze Internet inhalieren lassen. Und quasi mit der Sprache gelangte auch das darin enthaltene Wissen Eingang ins System. Aber wie gesagt, es ist nicht primär aus Wissensspeicher im Sinne einer Auskunftei gedacht.
Nichtsdestotrotz lässt es sich natürlich für verschiedene Dinge benutzen. Sowas wie "Lies diese Dokumente und gib mir eine Zusammenfassung davon". Das funktioniert auch nicht perfekt, aber immerhin erleichtert es doch Vieles.

Und das die Systeme Fehler machen sehe ich nicht als übergroßes Problem. Erstens machen auch Menschen Fehler. Sprich: Wenn Du Menschen Aufgaben gibst, ist das ja auch nicht unbedingt fehlerfrei.
Zweitens hast Du den Absolutheitsanspruch ja auch bei anderen Werkzeugen nicht. Es kommt immer darauf an, sie auch richtig zu benutzen. Das ist bei der KI grundsätzlich erst mal nicht anders.

Bei größeren Modellen mag das besser werden, aber das Grundübel bleibt.
Ein Modell was nur 4 GB groß ist, ist zudem sehr klein.
Da kann man echt nicht viel erwarten.

Abseits davon ist die Frage, wie gut die Modelle zukünftig noch werden. Viel hilft hier nicht unbedingt viel.

Zudem ist auch die Frage, was künftig noch an Datenquellen erschlossen werden kann. Gibt auch immer mehr Restriktionen im Internet. Zudem hast Du inzwischen auch schon viel KI-generierte Inhalte drin, weshalb es einen Katze-beißt-sich-in-den-Schwanz-Effekt gibt.

Ist generell die Frage, inwieweit der Weg "größere Modelle zu bauen" oder "sich aus mehr Datenquellen bedienen" überhaupt noch künftig eine zielführende Strategie sein wird. Gut möglich, das wir da sogar schon einen Peak sehen bzw. ihn bald erreichen.
 
Eigentlich sollte das Ziel ja sein, dass das KI Auto weniger gefährlich ist, als der Mensch. Und ich denke an diesem Punkt könnte man schon angekommen sein.
Ja. Nur wird das allein nicht für Akzeptanz reichen.
Wie schon gesagt: Einem Menschen gesteht unsere Gesellschaft eher Fehler zu als einer Maschine.
Ist ja auch schön in der Berichterstattung zu sehen. Da wird jeder Unfall mit einem autonomen Fahrzeug lautstark durch die Presse gezogen als Beleg dafür, wie gefährlich die Technik ist.
Die "normalen" Verkehrstoten werden hingenommen als Preis für die Mobilität.
 
Bei den großen Modellen wird ja auch offenbar viel "nachgelernt" mithilfe von Menschen die schlecht bezahlt in Afrika in Massen zeugs da reinpflegen.
 
mithilfe von Menschen die schlecht bezahlt in Afrika in Massen zeugs da reinpflegen.
Die KI verdrängt (hierzulande) also (relativ gesehen) Hochpreis-Arbeitsplätze und im Niedriglohnbereich wird das mit billigen Clickworkern aufgefüllt.
Ganz schön clever. :-)

Wobei auch das ja die KI kann.
Also KI die sich selbst "korrigiert" und das wird dann schön als Fortschritt mit dem Buzzword Reasoning-KI vermarktet. :-)
 
aus: https://www.bpb.de/system/files/dokument_pdf/APuZ_2018-06-08_online_0.pdf
Und wir müssen uns wirklich
keine Gedanken darüber ma-
chen, Herr Rojas, dass Roboter
einmal klüger sein werden als die
Menschen oder sich einst von uns
emanzipieren?
Rojas – Auf jeden Fall nicht in
diesem Jahrhundert! Ich glaube
generell nicht, dass Roboter ir-
gendwann die Herrschaft über
uns übernehmen werden. Kon-
rad Zuse, der erste Computer-
bauer in Deutschland, sagte
einmal: Wenn die Computer zu
frech werden, zieh den Stecker
raus.

aus: Stephen Hawking, KURZE ANTWORTEN AUF GROSSE FRAGEN (Verlag Klett-Cotta)
Warum machen wir uns wegen Künstlicher Intelligenz
so große Sorgen? Der Mensch wird doch jederzeit dazu
in der Lage sein, den Stecker zu ziehen!
Die Menschen fragten einen Computer: »Gibt es einen
Gott?« Und der Computer sagte: »Ja. Ab jetzt« — und
brannte mit dem Stecker durch.
 
Ehrlich gesagt ist meine große Sorge gar nicht unbedingt, das sich die "KI" aktiv gegen ihren Schöpfer wendet den "aus dem Weg räumen" will, sondern das Leute KI unbedacht für die Steuerung von allem möglichen einsetzen. Das Problem haben wir ja jetzt schon beim Börsenhandel und den ganzen Speed-Trading, wo dann im wesentlichen Algorithmen aka KI den Handel übernimmt, um dann innerhalb von Millisekunden reagieren zu können. Und alle setzen solche Systeme ein, weil sich jeder sagt "Wenn wir verantwortungsbewusst sind und da einen Menschen drüber schauen lassen, sind wir zu langsam im Vergleich zu Konkurrenz".
Und dann kann es natürlich schnell mal zu Kettenreaktionen kommen die die ganze Finanzwelt und damit die globale Wirtschaft in den Abgrund ziehen können mit all den Folgen, die das eben so haben kann.

Das die Menschheit keinen Feind braucht um unter zu gehen, können wir ja auch schön anhand Klimawandel bestaunen.
Insofern: Selbst wenn es mal eine AGI gäbe, die der Meinung wäre, das die Menschen vom Planeten getilgt gehören, braucht die nur abzuwarten, das der das von alleine macht. :-)
 
ich glaube aber, dass es zu kurz greift, wenn man nur die derzeitigen oder in absehbarer Zukunft möglichen Anwendungen und rechtlichen Konsequenzen daraus diskutiert.

Auch, was den Klimawandel angeht, gab es schon in den 1960ern und dann jedes folgende Jahrzehnt entsprechende Warnungen und trotzdem ist die Entwicklung stetig fortgeschritten, ja, nicht mal linear, sondern exponentiell und damit schneller, als viele der alten Miesepeter in ihren schlimmsten Befürchtungen geglaubt hatten.
Manche aktuelle KI-Skeptiker sind nun sehr prominent, was für die frühen Fortschritts- und damit auch Kapitalismus-Skeptiker nicht gilt.
Stephen Hawking ist ein recht gutes Beispiel, aber wieviel Expertise hat er eigentlich? Elon Musk ist ein anderes Beispiel, aber eher ein abschreckendes. Wer glaubt dem denn schon irgendwas?

KI beinhaltet den Begriff Intelligenz und der ist schnell ausgesprochen, aber er hat es wirklich in sich.
Deshalb ist es für mich wichtig, immer genau fest zu legen, wovon man eigentlich redet. Wir haben keine genaue Definition der NI (natürlichen Intelligenz), reden aber in einem fort von KI.
Ist es intelligent, wenn ein Sensor bemerkt, dass ich das Zimmer betrete und dann das Licht eingeschaltet wird, also nicht immer, sondern nur, wenn es dunkel ist? In meinen Augen nicht, obwohl so etwas natürlich auch durch eine intelligente Maschine gesteuert werden könnte. Trotzdem reden viele Menschen inzwischen von intelligenten Häusern.
Ist es intelligent, wenn ich irgendwo anrufe und keinen menschlichen Gesprächspartner erreiche, sondern meine Sprache ausgewertet wird, um dann Aktionen ein zu leiten? In meinen Augen nicht, trotzdem reden viele Leute da von intelligenten Antwort-Systemen.
Ist es intelligent, wenn ich einen Mitmenschen auf der Straße treffe und der mich zunächst in irgendeinem arabisch anredet, was ich nicht verstehen kann und statt wie früher den Liliput aus zu packen, nun in sein Handy spricht, das mir die passende Übersetzung liefert? In meinen Augen nicht, obwohl viele Menschen das staunend als intelligent bewundern.

So ist auch das automatische Lenken eines Fahrzeuges für mich primär keine Frage künstlicher Intelligenz, sondern des spröden Auswertens vieler Daten, die dann zu einer Reaktion führen.

Wie gesagt, der Begriff hat es in sich und das führt deshalb ja nicht erst seit kurzem zu viel Nachdenken in der Szene.
Ich muss hier nicht den Turing-Test erwähnen, aber vielleicht doch darauf hinweisen, aus welchen Zeiten diese Überlegungen stammen.
Wer erinnert sich aus der alten Generation nicht an Rutger Hauer und Harrison Ford in Blade-Runner? Einfach wunderbar.
Oder an die Robotergesetze des Isaac Asimov und sein entsprechendes Universum?

Vielleicht werden diese Themen langsam etwas drängender?
Vielleicht erleben wir noch die Erweckung einer KI?


Was mich persönlich angeht, fürchte ich vielleicht am ehesten, das unsere digitalen Brüder uns zu ähnlich sein könnten.
Der Verlust der Menschheit ist doch nur dann zu bedauern, wenn sie nicht durch etwas ersetzt wird, das entschieden besser funktioniert. Oder?
 
Bei diesen eher Philosophischen KI Fragen mag ich das sehr humorvolle Buch "Qualityland" von Marc-Uwe Kling sehr gerne.
Das erzählt nicht unbedingt komplett neue Aspekte zu diesen Thematiken sondern greift eher Humorvoll viele dieser genannten Ideen von Asimov, Blade-Runner und Co auf und schafft damit etwas ganz eigenes. (Ich empfehle das Hörbuch da der Author das selbst sehr schön einspricht)

Ein sehr toller Film der sich mit einigen Fragen beschäftigt ist auch Ghost in the Shell - den sollte man mal gesehen haben und hat ua später Matrix inspiriert und gilt zurecht inzwischen als Klassiker in dem Cyberpunk-Genre das sich ja oft mit diesen Zukunftsvisionen beschäftigt.
 
reden aber in einem fort von KI.
Ja. Der Begriff ist schwammig und wird auch teilweise bewusst in dieser schwammigen Bedeutung eingesetzt.
Eine grobe Vorstellung was damit gemeint ist, hat aber trotzdem jeder.
Wenn man im Austausch ins Detail geht, dann ist es natürlich sinnvoll sich zu einigen, worüber man denn konkret redet.

Und umgangssprachlich gilt oft ein System als intelligent, wo nicht mehr trivial vorhergesagt werden kann, wie es reagiert. Das hängt natürlich von dem Subjekt ab, da jeder natürlich unterschiedliche Fähigkeiten hat Systeme zu durchschauen bzw. nicht zu durchschauen. Jemand mit einer gewissen Vorstellung von Technik und Programmierung wird eine automatische Lichtsteuerung eher als intelligent empfinden als jemand der das nicht hat.

Wie und warum Systeme wie ChatGPT ihre Worte wählen ist nicht oder nur von wenigen wirklich zu durchschauen. Deshalb wird hier der Intelligenzbegriff besonders häufig benutzt. Dazu kommt noch, das es Ähnlichkeiten zu menschlichen Verhalten gibt. Auch dieser Aspekt ist einer, weshalb man im Umgangssprachlichen von Intelligenz redet.

Wann man von echter Intelligenz reden kann ist natürlich eine schwierigere Frage.
Ein Ansatz wäre:
Wie verhält sich das System in Situationen, die weder von der Programmierung vorgesehen sind noch in den Trainingsdatensätzen abgebildet sind.

Ein anderer Aspekt könnte sein: Verfolgt das System eine eigene Agenda oder nicht. Das ist aber mitunter gar nicht so einfach festzustellen. Nehmen wir an, wir hätten eine KI die wirklich plant die Weltherrschaft zu übernehmen. Wenn wir die fragen, würde uns die Intelligenz das natürlich nicht sagen. Weil sie ja ahnt, das wenn sie ihren Plan preis gibt, wir das Ding sofort abschalten würden. Und wenn sie es sagt, können wir es auch nicht wissen, weil die Aussage nur das Ergebnis einer Halluzination sein könnte.

All diese Dinge machen eine Bewertung schwierig. :-)
 
Woher soll ich wissen, dass wir nicht exakt gerade halluzinieren, die "Übernahme" bereits nahtlos vor 2000 Jahren erfolgte und wir in einem fruchtwassergefüllten Pod liegen.
Im Traum weiß ich wenigstens, dass Lichtschalter nicht funktionieren. :D
 
Woher soll ich wissen, dass wir nicht exakt gerade halluzinieren, die "Übernahme" bereits nahtlos vor 2000 Jahren erfolgte und wir in einem fruchtwassergefüllten Pod liegen.
Im Traum weiß ich wenigstens, dass Lichtschalter nicht funktionieren. :D
Oder das du nie als Mensch existiert hast, nur ein Programm in einer Simulation.
 
Oder das du nie als Mensch existiert hast, nur ein Programm in einer Simulation.
So weit muss man ja nicht mal gehen.
Ich meine, wenn man es mal ganz nüchtern betrachtet sind wir als Menschen ja auch nur Hardware. Wir sind mit Sensoren ausgestattet (Auge, Nase/Riechen, Tastsinn usw.) haben eine CPU (Gehirn) auf der eine Software läuft. Und diese Software wertet ja auch nur das aus, was sie von den Sensoren bekommt und rendert daraus eine Vorstellung davon. Das grüne Blatt was Du siehst, ist ja nicht in Wirklichkeit grün, sondern das ist eine Interpretation unserer Software für bestimmte elektromagnetischen Frequenzen die emittiert werden.

Insofern ist das, was wir als Realität wahrnehmen ohnehin schon nur ein "als ob" und hat nichts mit einer, wie auch immer gearteten objektiven Realität zu tun. Letztlich stellt sich aber auch die Frage, inwieweit das von Belang ist. Wenn ich von einem Stein getroffen werde ist es für mich unangenehm. Und zwar egal, ob der Stein "echt" ist oder das nur simuliert ist.

Und das auf unserem Gehirn nur eine Software läuft wo es letztlich auch egal ist, ob die von Sensorik und Informationen aus der "Realität" gefüttert wird oder nicht, wird einem klar, wenn man an Träume denkt die ja teilweise auch durchaus sehr realistisch daherkommen.
 
Ehrlich gesagt ist meine große Sorge gar nicht unbedingt, das sich die "KI" aktiv gegen ihren Schöpfer wendet den "aus dem Weg räumen" will, sondern das Leute KI unbedacht für die Steuerung von allem möglichen einsetzen.

Die Enshittification durch den KI-Einsatz wird in vielen Bereichen kommen, einfach weil KI (im Sinne von LLMs und insbesondere GPTs) um - je nach Aufgabe - Faktor 10 bis 100 (wenn es reicht) günstiger ist als der Mensch.

Wie verhält sich das System in Situationen, die weder von der Programmierung vorgesehen sind noch in den Trainingsdatensätzen abgebildet sind.

Eine sehr gute Frage. Tatsächlich haben LLMs emergent abilities.

Mit steigender Zahl an Parametern des LLMs gibt es auf einmal massive Sprünge in der Leistungsfähigkeit bei bestimmten Aufgaben - inklusive Fähigkeiten, für die es gar nicht trainiert wurde.

Nicht umsonst ist der Arbeitsmarkt für Junior-Entwickler ziemlich tot und es ist keine Besserung in Sicht.

Es bleibt spannend.
 
je nach Aufgabe - Faktor 10 bis 100 (wenn es reicht) günstiger ist als der Mensch.
Ja. Das ist so. Und das Automation und neue Entwicklungen Arbeitsplätze wegnehmen ist ja auch nicht KI-spezifisches.
Das hatten wir ja schon immer. Und es ist dann ja auch häufig so, das neue Arbeitsplätze entstehen. Das sich das Automobil durchgesetzt hat, hat natürlich Pferdekutscher und Wagner erst mal ihren Job gekostet aber es sind infolgedessen ja auch sehr viel mehr Jobs in und rund um die Automobilindustrie entstanden. Bei KI haben wir möglicherweise ähnliche Effekte. Mal gucken.

Das war aber auch gar nicht, worum es ging. Es ging ja um die Frage: Wird KI uns alle umbringen.
Und da war ja mein Standpunkt: Wird eher nicht so sein, das die self-aware wird und beschließt, die Menschheit aus dem Weg zu räumen / zu versklaven / whatever.
Insofern frage ich mich gerade, wo Du hin willst bzw. was Du sagen willst.
Mit steigender Zahl an Parametern des LLMs gibt es auf einmal massive Sprünge in der Leistungsfähigkeit bei bestimmten Aufgaben - inklusive Fähigkeiten, für die es gar nicht trainiert wurde.
Da wäre ich erst mal vorsichtig.
KIs / neuronale Netze sind ja sehr gut darin Korrelationen in Daten zu finden, die für uns erst mal nicht offensichtlich sind.
Und dann beobachtet man scheinbar neue Dinge die in den Trainingsdatensätzen scheinbar nicht enthalten ist, es muss aber nicht unbedingt so sein.
Ich will natürlich nichts ausschließen, aber ich würde da erst mal noch die weitere Forschung abwarten.

Es wird ja auch immer wieder eingeräumt, das wir im Grunde nicht wissen, was in solch komplexen neuronalen Netzen wirklich passiert. Und auf Grundlage dessen dann irgendwelche Aussagen zu treffen, halte ich für schwierig.

Nicht umsonst ist der Arbeitsmarkt für Junior-Entwickler ziemlich tot und es ist keine Besserung in Sicht.
Ist halt die Frage, inwieweit das im Augenblick vielleicht nur eine Folge des Hypetrain ist.

Meine eigene Erfahrung mit den KI-Tools ist, das sie Dinge vereinfachen und auch Zeit sparen und durchaus nützlich sind. Aber wirklich profitieren davon tut man, wenn man sich auskennt und weiß, was man tut. Wenn man weiß, wie Programmierung funktioniert. Wenn man Antworten der KI auch fundiert bewerten kann und z.B. auch sieht, wenn die mal irgendwo falsch abgebogen ist.

Wenn man das laienhaft benutzt und denkt, man braucht der KI ja nur sagen was für ein Programm man haben will und dann schriebt die einem das, dann bekommt man - gelinde gesagt - schlechte Ergebnisse. Für einfache Programme funktioniert der Ansatz sogar noch, aber wenns ein wenig komplexer wird, dann funktioniert der eben nicht mehr.

Ein grundsätzlicher Bedarf an Programmierern ist also nach wie vor gegeben.
Das es kurzfristig einen Impact auf den Arbeitsmarkt gibt, ist aber völlig klar.
Die Programmierer die da sind werden durch KI-Tools mit einem Schlag produktiver und schaffen in der gleichen Zeit mehr. Logischerweise sinkt dann erst mal der Bedarf. Und das Junior-Developer besonders betroffen sind, wundert mich auch nicht. Programmieren ist ein Handwerk das sehr von Erfahrung lebt. Und wie ich gerade sagte, profitiert man am meisten von KI-Tools wenn man weiß, was man tut. Erfahrung ist aber genau das, was ein Junior-Developer eher nicht hat.

Wie sich das langfristig auswirkt, muss man gucken. Wir hatten ja jetzt schon in den letzten Jahren viele Neuerungen die die Produktivität erhöht haben und z.B. uns auch ermöglicht haben, komplexere Programme zu schreiben. Und allein die ability komplexere Programme zu schreiben, hat ja dann auch dazu geführt, das zu tun, was den gewonnenen Zeitvorteil dann auch gern mal wieder aufgefressen hat.

Zudem ist in dem KI-Bereich sehr viel Bewegung drin. Kommt ja quasi jede Woche ne neue Meldung raus, was KI jetzt alles kann und was damit realisiert wurde usw. Wenn ich Arbeitgeber wäre, würde ich auch überlegen: "Stell ich jetzt jemanden ein, den ich ja auch erst mal anlernen muss und all die weiteren Reibungsverluste die man anfänglich eben so hat und denn ich dann aber nächstes Jahr vielleicht nicht brauche, weil es dann wieder irgendwas Neues gibt, was den überflüssig macht?" Da wäre ich auch eher zurückhaltend mit Neueinstellungen und würde zunächst mit den Leuten weiter wurschteln, die ich bereits habe.

Und ja. Die KI wird sich in den nächsten Jahren verbessernd und wird sicherlich nicht schlechter werden.
Aber seriös vorherzusagen, wieviel Programmierer wir z.B. in 5 Jahren brauchen werden, das halte ich für schwierig.
 
Und das auf unserem Gehirn nur eine Software läuft wo es letztlich auch egal ist, ob die von Sensorik und Informationen aus der "Realität" gefüttert wird oder nicht, wird einem klar, wenn man an Träume denkt die ja teilweise auch durchaus sehr realistisch daherkommen.
dünnes Eis, behaupte ich mal.
Alle paar Jahr gibt es so etwas, wie "Bahnbrechende" neue Erkenntnisse darüber, wie unser Gehirn funktioniert und wenn so etwas stattfindet, neige ich eher dazu anzunehmen, dass wir noch recht wenig darüber wissen, wie es tatsächlich funktioniert.
Dein Beitrag, aus dem ich nur den einen Satz zitiert habe, beschreibt eher das biologische Gesamt-Verhalten und lässt die unterschiedlichen Schichten, wie Unterbewusstsein und Bewusstsein in ihrer Bedeutung und jeweiligen Verknüpfung außen vor. Wenn ich mir alleine die große Anzahl an sogenannten "Geisteskrankheiten" betrachte (die manchmal auch als Seelen-Krankheit bezeichnet werden) und wohl in ihrer Mehrzahl auf eine "einfache Fehlprogrammierung" zurückgeführt werden könnten, die wir aber nicht heilen können, dann sieht es für mich nicht so aus, als wenn wir dieses Thema schon verstanden hätten.
Schon die eigentliche Programmierung ist durchaus immer noch umstritten, weil es da wohl erbliche Faktoren gibt, die sich dann mit erworbenen Faktoren überlagern und schon auf Grund der unglaublich vielen Einflussfaktoren und deren jeweils unterschiedlicher, individueller Gewichtung, lässt sich kein verbindliches Szenario entwickeln, aus dem eine bestimmte, zielgerichtete Entwicklung abgeleitet werden könnte. Letzteres wird allerdings häufig genau anders dargestellt, vor allen Dingen in diversen Since-Fiktion Produktionen, wie etwa Star Force Soldier mit Kurt Russel in der Hauptrolle, wo aus kleinen Kindern in gezieltem Training perfekte Soldaten gemacht werden oder in dem, meiner Ansicht nach sehr guten Werk von C.J. Cherryh, besonders den drei Bänden 40.000 in Gehenna, Cyteen und Regenesis, wo es tatsächlich um das Klonen von Menschen und deren Programmierung geht. In dem letzteren wird ungefähr und grob gesagt, die These vertreten, dass sehr umfangreiche Maßnahmen nötig sind und über Jahrzehnte aufrecht erhalten werden müssen, um eine erfolgreiche Programmierung eines Klons zu erreichen und doch wird letztlich die Frage nach dem "freien Willen" des programmierten Klons aufgeworfen.
Kurz gesagt erscheint es mir derzeit unmöglich, den Menschen gezielt zu programmieren und Fehler im Programm zu beseitigen und das wird auch wohl so bleiben.

Weiter oben hatte ich mal den Begriff NI gesetzt um natürliche Intelligenz von KI zu unterscheiden.
Im Grunde genommen könnte ich aber auch MI sagen, denn die einzige natürliche Intelligenz, mit der wir jemals zu tun hatten, ist die menschliche Intelligenz. Im Gegensatz zu vielen Gelehrten habe ich nicht den Eindruck gewonnen, dass die Entwicklung intelligenten Lebens eine zu erwartende und natürliche Folge der Evolution ist. Ich halte Intelligenz hingegen eher für einen Unfall, einen sehr unwahrscheinlichen und möglicherweise sogar verhängnisvollen Unfall in einer laufenden biologischen Evolution. Es würde aber den Rahmen sprengen, diese Argumentation hier nun weiter zu verfolgen.
Was bleibt ist aber, dass die MI einzigartig und von uns selbst bisher nicht verstanden ist.
Trotzdem bleibt es ja die einzige Form von Intelligenz, die wir versuchen können, mit Maschinen nach zu bauen.
Wie gut kann so etwas gelingen, wenn man die Grundlagen der Vorlage schon nicht verstanden hat?
Ich weiß es nicht!

Aber ich glaube, dass wir uns da durch den Begriff irritieren lassen.
Wir sind weit entfernt von einer KI, die tatsächlich mit der MI verglichen werden könnte.
Unsere KIs brauchen (noch) keinen Psychiater für ihr Seelenheil, ihre Programmierung läuft (noch) sehr einfach und oberflächlich ab und zudem (noch) sehr zuverlässig und Zielgerichtet. Klone einer KI sind wieder eine KI, sofort vollkommen da und brauchen keine Jahrzehnte der Sozio-Kulturellen Programmierung.
 
Alle paar Jahr gibt es so etwas, wie "Bahnbrechende" neue Erkenntnisse darüber, wie unser Gehirn funktioniert und wenn so etwas stattfindet, neige ich eher dazu anzunehmen, dass wir noch recht wenig darüber wissen, wie es tatsächlich funktioniert.
Es wird ja manchmal auch salopp gesagt, das wenn unser Gehirn einfach genug wäre, es zu verstehen, wir zu dumm wären, es zu begreifen. :-)

btw.: Die neuronalen Netzwerke, die wir für machine-learning benutzen werden ja manchmal mit einem Gehirn verglichen, weil es auch tatsächlich gewisse Ähnlichkeiten gibt. Es ist aber bei weitem nicht das, was wirklich alles im Gehirn stattfindet.
Und schon bei den vergleichsweise primitiven neuronalen Netzwerken haben wir ja Probleme die wirklich zu verstehen.

Insofern: Ja. Du hast recht.
Ich will jetzt nicht so weit gehen zu sagen, die Hirnforschung weiß nicht, wovon sie redet. Aber sehr viel ist noch völlig unklar.

Unabhängig davon, ob wir das irgendwann verstehen werden oder nicht:
Unser Gehirn hat eine Grenze von dem, was es verstehen kann und was nicht und die kann man auch nicht mit Wissen oder Lernmethoden überwinden. Das liegt in der Natur der Sache.

Und genau hier setzt ja auch eine der Visionen der KI-Forschung an. Das man halt sagt: Unser Gehirn mag Grenzen unterworfen sein, aber wir können theoretisch Computer bauen, die eine höhere Verständniskapazität hat als unser Gehirn.
Und dann mit den ganzen Folgen die das haben kann. Das die KI für uns Probleme löst, die wir nicht lösen können bis hin zu Mind-Upload um uns selbst von den biologischen Grenzen zu befreien.

doch wird letztlich die Frage nach dem "freien Willen"
Und die Frage besteht ja unabhängig davon, ob Du gezielt programmiert wirst oder nicht.
Letztlich ist es ja so, das in dir biochemische und bioelektrische Vorgänge nach festen Regeln (Naturgesetze) ablaufen und demnach der freie Wille nur eine Illusion ist, der im Prinzip nur dadurch entsteht, das sie zu komplex sind um durchschaubar zu sein.

Daraus folgt jetzt nicht zwangsläufig ein Determinismus weil es ja auch echte zufällige Ereignisse gibt (z.B: der Zerfall eines Atoms lässt sich nicht vorhersagen), aber auf die hast Du ja keinen willentlichen Einfluss.

Unsere KIs brauchen (noch) keinen Psychiater für ihr Seelenheil,
Seelenheil ist hier ein schwieriges Wort. Bei uns Menschen ist es relativ klar. Wir fühlen uns nicht wohl und wollen etwas ändern.
LLMs fühlen - soweit wie wissen - nichts. Was aber mit einer solchen KI passieren kann, das sie in ein Zustand gerät, in der sie nicht mehr richtig funktioniert.
Und dann können Worte (sprich: Gesprächstherapie) dabei helfen, sie wieder auf den richtigen Pfad zurückzuführen.

Klone einer KI sind wieder eine KI, sofort vollkommen da und brauchen keine Jahrzehnte der Sozio-Kulturellen Programmierung.
Ja. Sciene-Fiction greift die Thematik ja gerne mal beim Menschen auf. Also was wäre, wenn wir klonen könnten und auch ein Mindcopy machen könnten (was dann in den Geschichten gerne mal benutzt wird, um z.B. einen defektion Körper zu "reparieren").
Was ich mich dann ja immer frage: Was passiert mit dem 'Ich'. Bleibt das in meinem Originalkörper oder ist das dann in dem mind-copied-Körper oder irgendwie in beiden?!
 
Vor allem besteht die Programmierung nicht primaer auf reinem Code schreiben, sondern zu >90% aus Planung, Recherche, RFCs lesen, Meetings mit Kunden machen, usw. Das alles kann einem eine KI auch nicht abnehmen. Wenn dann die ganze Vorarbeit geleistet wurde, dann kann die KI das Programmieren nach sorgfaeltiger Formulierung durch einen Menschen uebernehmen und der Mensch muss es dann wiederum testen, dem Kunden vorfuehren, wieder in Meetings gehen, Aenderungen planen, usw. usf. Im Idealfall besteht Programmierung aus 99,9% Planung und 0,1% Programmierung.
 
Zurück
Oben