Teste die KI

Idefixx

Well-Known Member
Wer mal die KI von Google ausprobieren möchte, dem sei dies empfohlen: Gemini-API

Vor der Nutzung muß man ein Konto anlegen, für mich kein Problem, ich habe seit etwa 10Jahren eins bei Google. Ich zeige hier nur zwei Beispiele, ansonsten ist Fantasie gefragt, um die KI heraus zu fordern. :D
 

Anhänge

  • VirtualWorld2024-09-11.webp
    VirtualWorld2024-09-11.webp
    42,9 KB · Aufrufe: 276
  • Married2024-09-11.webp
    Married2024-09-11.webp
    29,3 KB · Aufrufe: 274
Wer ein Large Language Model (LLM) mal lokal ausprobieren möchte, es gibt dafür freie Software in Form von ollama (auch als Port), llama-cpp (auch als Port) und viele mehr.

Am Beispiel von ollama:
Code:
$ ollama serve

In einer zweiten Shell kann man dann den (interaktiven) Client nutzen (hier am Beispiel von LLaMa 3.1):
Code:
$ ollama run llama3.1 "Generate code to setup an nginx jail in FreeBSD."
Here is a step-by-step guide to setting up an Nginx jail in FreeBSD:

**Step 1: Create a new jail**

First, we need to create a new jail using the `jail` command:
```bash
# jail -m -n mynginx jail:/usr/local/etc/jails/mynginx
```
This will create a new jail named "mynginx" with its own file system in `/usr/local/etc/jails/mynginx`.

**Step 2: Configure the jail's network settings**

Next, we need to configure the jail's network settings:
```bash
# echo '10.0.1.100' > /usr/local/etc/jails/mynginx/10.0.1.100.conf
```
This will create a new configuration file for the jail that sets its IP address to `10.0.1.100`.
[...]

Mit einer GPU mit ausreichend RAM (für die meisten LLMs 16 GB VRAM, für kleinere reicht aber auch 8 GB VRAM) kommen die Antworten auch rasend schnell. Man kann es mit etwas Geduld aber auch nur mit der CPU nutzen.
 
So, habe mal ollama mit llama3.1 getestet.
Interessant ist schon mal die gleiche Frage mehrmals zu stellen. Man sieht schön wie sich die Antworten unterscheiden, KI geht nicht auf nächsten Treffer beim "Weiterhangeln" sondern sucht sich zufällig einen unter den Weiterhangel Möglichkeiten.
Außerdem werden bei Fragen zu bestimmten Dingen z.B.
Code:
Tell me about BR52
"Fakten" eingebaut, die von ähnlichen Dingen kommen, aber definitiv falsch sind (einfach auch mal mehrfach fragen).
 
Ich bin schon länger nicht mehr im Testmodus, was KI betrifft. Aktuell habe ich einen kostenlosen Account bei openai für ChatGPT. Nicht immer sind die Antworten paßgenau, aber von Halluzinationen ist ChatGPT weit entfernt. Das KI hier noch nirgendwo thematisiert wurde, erstaunt mich sehr.
 
LLM macht was es soll, nämlich natürliche Sprache/Gespräche immitieren. Und das kann es auch sehr gut. Wenn Leute das für Zwecke nutzen, für die es nicht gedacht/ausgelegt ist, kommt halt Quatsch raus, das ist nicht verwunderlich.
 
Ich bin mal auf GPT Next gespannt. Das soll ja angeblich etwas können, was die örtliche Marketingabteilung als "Reasoning" bezeichnet und z.B. deutlich besser mit Mathematik umgehen können. Wenn dem wirklich so ist, hat es das Potential LLMs für Dinge wie Programmierung stark zu verbessern.
 
Hmm

wenn ich sehe wieviel Leute heute schon Entscheidungen treffen, die auf ihnen genehmen Aussagen von "Experten" beruhen und Aussagen aus dem Computer heute schon oft blind vertraut wird (z.B: FEM Modelle, bei denen der, der die sie einsetzt das System / die Umgebung nicht verstanden hat) habe ich bei KI-Einsatz echt Bedenken. Nicht falsch verstehen, wenn man weiß was man tut, ist KI als Gedankenstütze oder zur Ideenfindung interessant und hilfreich. Aber Code von einer KI für essentielle Anwendungen ohne daß das ausreichend verifiziert wird ("kostet nur Geld") - ich weiß nicht (v.a. weil dann die verifizierungg auch von einer KI gemacht wird). Und zum Schluß kann man's ja auf den "Computer" schieben.
Deswegen finde ich einfachere KI ganz interessant, weil man noch sieht / erahnt, was im Kern vorgeht.
 
LLM macht was es soll, nämlich natürliche Sprache/Gespräche immitieren. Und das kann es auch sehr gut. Wenn Leute das für Zwecke nutzen, für die es nicht gedacht/ausgelegt ist, kommt halt Quatsch raus, das ist nicht verwunderlich.

Das kann es in der Tat sehr gut. Ich hatte vor ein paar Monaten mal einen Chatbot ausprobiert der auf Pen & Paper-Rollenspiele trainiert wurde und er konnte erstaunlich gute Antworten liefern, wenn ich auch spezifischere Aktionen beschrieben habe. Und dann gibt's natürlich noch wie von dir beschrieben Leute die einfach nur aus Faulheit auf den Zug aufspringen und dann reihenweise auf lancierte Pranks reinfallen, wie als der World of Warcraft-Subreddit KI-Autoren mit Glorbo aufs Kreuz gelegt hat.
 
Ich denke, man muss auch zwischen dem aktuellen Hype und dem langfristigen Potential unterscheiden. Das Internet war vor gut 25 Jahren auch ursächlich für eine gewaltige Wirtschaftsblase, die natürlich irgendwann platzte und einen Großteil der Internetunternehmen der ersten Generation in den Tod riss. Und trotzdem ist das Internet damit nicht verschwunden. Ganz im Gegenteil, erst nach der Blase ging es richtig groß und es für gut 20 Jahr war und vielleicht auch noch immer ist es eine der zentralen Triebkräfte der Weltwirtschaft.

Es ist schwer zu sagen, ob generative KI ein vergleichbares Potential hat. Wahrscheinlich eher nicht, denn schon die Einstiegshürden sind aufgrund der sündteuren Hardware und der zum Training notwendigen, riesigen Datenmengen enorm. Dazu kommen die laufenden Betriebskosten, die durch den gigantischen Energiebedarf - wird sind erst am Ende des zweiten Jahres nach ChatGPT und schon bei Atomkraft zur Versorgung von KI-Rechenzentren angekommen - abartig sind. Die ganze Sache wird sich aus den gleichen Gründen auch nicht endlos skalieren lassen. Es werden sich keine endlos großen KI-Rechenzentren bauen lassen, man wird immer größere KI-Rechenzentren nicht mit Energie versorgen können, die Gesamtmenge möglichen Trainingsmaterials ist begrenzt und so weiter.

Aber das heißt nicht, dass generative KI einfach wieder verschwinden wird. Das gibt es einfach zu viele Einsatzmöglichkeiten, wo sich teures Personal gegen weniger teure generative KI ersetzen lässt und faktische Korrektheit nur eine untergeordnete Rolle spielt. Oder wo KI-Assistenten einfach praktisch sind. Ich weiß zum Beispiel aus einem anderen Leben, dass in diesem größeren Bereich Werbung und Public Relations buchstäblich tausende arme Seelen den ganzen Tag nichts anderes machen als Texte zusammenfassen. Das kann ein LLM schneller und günstiger. Überhaupt Werbung, ganze Armeen unterbezahlter Praktikanten, die all die Grafiken klöppeln und Texte schreiben, sollten sich vor LLMs fürchten. Ich behaupte, dass OpenAIs multimodale Modelle mit Sprachschnittstelle schon heute so manches First Level Support Callcenter komplett ersetzen kann. Dazu der Einsatz als persönlicher Assistent, mit LLMs hat das Versprechen, was vor ~10 Jahren mit Amazon Alexa, Apple Siri und co. gegeben wurde, das Potential endlich erfüllt zu werden. Und da ließen sich noch viele weitere Beispiele finden.
 
Zurück
Oben