Ankündigung

Einklappen
Keine Ankündigung bisher.

Kreuz & Quer

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    Nur mal so: Als Sextaner sind wir Jungs (Wessis klar) auf dem Schulweg an einem Parkplatz regelmäßig vorbeigegangen ...

    U.a. stand dort einmal ein VW Karman Ghia und ein Zastava .... (nicht zwingend am gleichen Tag)

    Den Karman haben wir "zur Kenntnis genommen" (und sind weitergelaufen).

    Um den "Zastava" sind wir herumgelaufen(!) und fanden das Auto lustig (auch wegen des Namens).

    Das (herumlaufen, reingucken) schaffte sonst nur ein englischer "Morgan plus 8", der irgendwann mal in der Nähe der
    Schule parkte.

    "Selten" (im jeweiligen Sozialisationskontext) macht eben auch interessant.
    Grüße aus Reinheim, Oliver Mertineit

    Kommentar


      lean brain management

      Die Anti-Fraud-KI der Anzeigen-Plattform agiert eisenhart: Sie sperrt harmlose Neu-User auch schon mal nach der SMS-Verifizierung, weiß Ben Schwan zu berichten.

      Kommentar


        Kommentar


          Zitat von respice finem Beitrag anzeigen

          Es ist m.E. beim Einsatz von KI-Software ähnlich wie beim Einsatz von Software allgemein:

          Die erwünschte "Effizienzsteigerung"
          - schnellere, automatisierte Abarbeitung von Geschäftsprozessen
          - geringere Fehlerquoten
          - ... (was man sich sonst noch so verspricht)


          tritt nur dann ein, wenn die Applikation an das Umfeld ausreichend angepasst ist (Anforderungen, Design,
          Konfiguration) und letztlich unter praxisnahen Bedingungen auch erfolgreich getestet werden konnte.

          Man verspricht sich jedoch von KI (insbesondere LLMs) im Allgemeinen, dass man die in diesem Umfeld
          (Anforderungsanalyse, Design, Implementierung, Qualitätsicherung) erforderlichen personellen Aufwände
          ganz oder teilweise "einsparen" könne.

          Beispiel:
          Man erhofft sich z.B. , dass Software schneller implementiert werden kann, wenn generative KI eingesetzt
          wird, um Quellcode (ganz oder teilweise) zu erzeugen.

          Dabei wird m.E. übersehen, dass LLMs u.a. in diesem Bereich "andere" Fehler machen als z.B.
          "Programmieranfänger".

          LLM Fehler sind in diesem Bereich selten auf der Ebene von "Flüchtigkeitsfehlern", auch ist der Code
          oftmals "nach Augenschein" lauffähig.

          Fehler enstehen hier oft auf der Anforderungs- und/oder Architekturebene (um die man sich nicht so
          sehr "kümmern" möchte, denn man arbeitet ja mit KI und hat es "eilig" ...), wo es am Ende auf "Verstehen"
          (ja tatsächlich ...) und "hinreichende/angemessene Abstraktion" bei der Lösungsfindung ankommt.

          Am Ende werden die Aufwände lediglich verschoben:
          Fehler in Systemen zu suchen und zu beheben, welche mit Einsatz generativer KI erstellt wurden, kann
          wesentlich aufwändiger werden, als das Auffinden und Beheben bisher "üblicher" Fehler.

          Dabei ist zu berücksichtigen, dass generative KI nahezu beliebige Mengen an Code/Text in kurzer Zeit
          erstellen kann: Dies wird irgendwann - M.E. schon sehr bald - sehr viele Menschen beschäftigen.

          Fehler, welche auf "ungünstigen" (z.B. nicht repräsentativen) Trainingsdaten beruhen, lassen sich jedoch
          oft nicht "auf die Schnelle" ursächlich beheben:

          Wir laufen auf eine Zeit zu, in der wir auf die Behebung von Software Fehlern länger und vergeblicher
          werden warten müssen, als das bereits in der Vergangenheit der Fall war.

          "Die KI macht das so, da können wir erstmal nichts ändern." wird ein(e) Aussage/Spruch werden, an den
          wir uns in vielen Bereichen gewöhnen müssen.

          Das sind viele (sehr viele) "mit heißer Nadel gestrickte" 80% Lösungen, die im Großen wie im Kleinen viel
          Nerven, Diskussion, wirtschaftliche Schäden und damit zusammenhängende Rechtsstreitigkeiten verursachen
          werden.

          Das Grundproblem ist dabei so alt wie die (Technikgeschichte der) Menschheit:

          Diejenigen, die eine neue Technologie verstehen und deren Anwendbarkeit (in einem bestimmten Bereich,
          in einem bestimmeten Stadium der Reife) einschätzen können, sind i.d.R. nicht diejenigen, die über ihren
          Einsatz entscheiden.


          D.h. Technik wird zum großen Teil dort eingesetzt, wo eine - mal mehr mal weniger kompetente - Gruppe
          glaubt, dass man die jeweilige Technologie erfolgreich einsetzen könne.

          Beim Einsatz potenziell "disruptiver" Technologien werden wir daher über kurz oder lang dies Grundproblem
          selbst angehen müssen.

          Für Gesellschaften jedoch, die sich scheinbar selbst explizit wünschen, von den jeweils inkompetentesten
          oder dümmsten (verfügbaren) Artgenossen regiert/vertreten zu werden, ist auch beim Umgang mit diesem
          Grundproblem kein Fortschritt zu erwarten:

          Dann wird ein jahrzehntelanges Anwachsen der Probleme mit dem üblichen anschließenden "Ausbaden"
          (oft auch durch nachfolgende Generationen) die übliche und bekannte Folge sein, so wie wir es in anderen
          Technologiebereichen beobachten konnten und können.


          (Post hier ist "anlassbezogen" und kann bei Bedarf in den "KI-Thread" verschoben werden.)
          Zuletzt geändert von dipol-audio; 16.11.2024, 12:40.
          Grüße aus Reinheim, Oliver Mertineit

          Kommentar


            ohne exakte und flexible analyse ist jede noch so intelligente automatisierte problemlösungstaktik ein topfen und die rückkopplung geht im kreis.
            aus einem anderen bereich:
            die robotik irrt hilflos herum, wenn die sensorik nachhinkt
            ALSregel: besser man kann mehr, als man macht, als man macht mehr, als man kann. (brecht)

            Kommentar


              Wenn (IMHO erwartbarerweise*) die Probleme von einer KI mit einer anderen KI "zugekleistert" werden, kann es lächerlich, aber nicht lustig werden.

              *erwartbarerweise, weil a) der Mensch von Natur aus ein faules Schwein ist und b) weil er selbt, wenn er sich befleißigt, nicht hinterherkommt.

              Turmbau zu Babel ver. 2.0?

              Kommentar


                Was Oliver schon angerissen hat, Fehlersuche. Auch ein Problem, wenn nicht sogar eines der Hauptprobleme werden die selbstlernenden Algorythmen sein die selbsttätig neuen Code generieren oder umschreiben und durch den dann nicht mal mehr Experten genau durchsteigen. Stichwort deep learning, denkbar wäre auch das ab einer gewissen Evolution solcher Systeme völlig neuer Code entsteht den nur noch die Maschinen verstehen. Das allerdings wäre fatal, so gesehen der Supergau. - Bis jetzt sind wir aber noch ein Weilchen davon entfernt, denkbar wäre so etwas aber.

                Gruß,
                Joachim
                Ein Computer löst all die Probleme, die ich ohne ihn nicht hätte.

                Kommentar


                  Die Maschinen "verstehen" (noch?) eh nix, sie assoziieren, verifizieren etc. (hoffentlich korrekt)...
                  Die Frage ist, sind wir die Affen, die gerade das Rasiermesser gefunden haben?
                  Ich befürchte, ja.

                  Kommentar


                    meiner naiven ansicht, man möge mich korrigieren, wenn ich falsch liege, ist die ki als taktisches werkzeug wertvoll und mag auch die strategische analyse erleichtern. gefährlich wirds dann, wenn sie sich zum alleinigen strategen aufschwingt. vielleicht kann man ki taktisch nutzen, die abgrenzung zu überwachen..

                    ist nicht der stratege der, den den datenraum einrichtet?
                    ALSregel: besser man kann mehr, als man macht, als man macht mehr, als man kann. (brecht)

                    Kommentar


                      Sollte so sein, theoretisch, praktisch ist oft "kann man nix machen, ist so eingerichtet von den Spezis"...
                      Werkzeug schlauer als der "Künstler" oder zumindest als dessen Auftraggeber

                      Kommentar


                        früher im aktsaal hatten viele scharfe augen aber einen ungenauen stift ....
                        ALSregel: besser man kann mehr, als man macht, als man macht mehr, als man kann. (brecht)

                        Kommentar


                          Eine mit Klebeband an einer Wand befestigte Banane ist bei einer Auktion in New York für 6,2 Millionen Dollar versteigert worden.

                          Kommentar


                            Olsen Gang?
                            Gescheitert an der Intelligenzsperre

                            Der Coup ging völlig schief: Erst lassen sich zwei mutmaßliche Geldautomatensprenger von der Polizei erwischen, dann kommt heraus: Sie haben gar nicht den Geldautomaten in die Luft gejagt.

                            Kommentar


                              Bei einer Bank an meinem Wohnort, da sind die Leute am Schalter so langsam,

                              dass bei einem Überfall die Polizei eher vor Ort ist,

                              als die Räuber das Geld haben.

                              Kommentar


                                Zu #3499, von Oliver.

                                Kommt mir vor, als hätte ich das Alles schon mal erlebt, erzeugt bei mir jedenfalls so etwas wie ein „déjà vu“ .

                                Kommentar

                                Lädt...
                                X
                                👍