News Änderungen bei ChatGPT: GPT-4 und Echtzeit-Informationen sind jetzt kostenlos

Icepeakjr schrieb:
Dann sehen die Websiten aber alle gleich aus, wie die „Wiggle“ Webseiten 😄
stellt sich die Frage, ob das wirklich so ist...

als Webdesigner hat man selber - hausnummer - 10.000 seiten gesehen
aus diesem Erfahrungsschatz zieht man seine Kreativität (und antürlich auch aus anderen Dingen)

eine KI kann - Hausnummer - aus einem ERfahrungsschatz von Millionen Websites ziehen

ob sie so dann nicht vielleicht zu "Ideen" kommt, Ergebnissen kommt auf die der menschliche Webentwickler nicht gekommen wäre..

Keativität ist so ne Sache..
in vielen Fällen (den meisten?) ist es ja doch "nur" eine Neukombination von bereits Dagewesenem..
und "bereits Dagewesenes" kann eine KI halt mehr durchschauen..
 
  • Gefällt mir
Reaktionen: Dark_Soul, Icepeakjr und IT-Nadja
Ayo34 schrieb:
Bevorzugung, "neue" Dinge bekommst du früher, keine Zurückstufung auf GPT 3.x bei Auslastung, mehr Historie möglich (Copilot z.B. nur "5")... die Frage ist ob man ChatGPT nur mal so ab und zu verwendet oder ob du häufiger und produktiv ChatGPT einsetzt.

Ich nutzte es tatsächlich nahezu täglich produktiv und habe auch heute mal GPT-4o getestet, hat zumindest bei mir auch deutlich schneller geschrieben, also bin ich damit zufrieden, wenn ich durch meine Zahlung halt verhindere, heruntergestuft zu werden.
 
Mimir schrieb:
Die Geschwindigkeit mit der sich AI entwickelt ist wahnsinn.
die Effizienz - die muss wohl noch deutlich besser werden.

ich hab mal ChatGPT 4o gefragt wie hoch der STromverbrauch sei, bei einer Anfrage..
die Antwort finde ich ziemlich erschreckend !

vor Jahren stand ja mal Google in der Diskussion, das eine Suchanfrage so-und-soviel Wh brauchen würde

auch das mal gefragt, bekomme ich als Antwort von GPT4o:
0,0003 kWh für eine Suchanfrage bei Google (also 0,3 Wh)

das finde ich wenig... hätte gedacht es wäre mehr

so.. aber jetzt zu ChatGPT:
0,1 bis 0,3 kWh für eine einzelne Textanfrage an GPT-3/4

WTF !

eine einzelne Textanfrage braucht soviel Strom wie ne fette Gaminggrafikkarte bei 1h Gaming (ohne fps-Limit)

wird aber noch besser:
0,2 bis 0,9 kWh für ein Bild mittels Bilderzeugung durch DALL-E

bis zu 0,9kWh !!!! für ein einziges Bild (in noch nichtmal hoher Auflösung)

jetzt kann sich ja kaum jemand heutzutage was unter 0,9kWh vorstellen..

mein Pedelec (Fahrrad mit Elektromotor zur Unterstüztung) fährt mit
0,9kWh = 900Wh ca. 300km weit (!)
also schon fast den halben Weg von Wien zum Meer an der Adria

eine einzelne Bildanfrage ==> 300km Radstrecke

ChatGPT zieht selber auch einen Vergleich:
"eine einzelne Textanfrage braucht ungefähr soviel wie 3300 - 10.000 Google Suchanfragen"

für eine 10minütige Unterhaltung mit ChatGPT4 veranschlagt ChatGPT4o bis zu 6kwh !!

können diese Zahlen stimmen ?
hat jemand eine gute Quelle parat ?

sie erscheinen mir viel zu hoch...

wenn ich das produktiv nutze, jeden Tag 30min mit ChatGPT verbringe und er dafür 20kWh veranschalgt, wären das im Monat bei 20 Arbeitstagen 400kWh
(das verfahren Leute mit ihrem Tesla SUV nicht in einem Monat)

auch ist eine Suchanfrage in 5-10 Sekunden erledigt..
würden da 0,2kWh anfallen, wären das in den 10 SEkunden ja ein Verbrauch von 72.000Watt in diesen 10 SEkunden

also hat da jemand bestätigte Zahlen?
wie es wirklich ausschaut..

denn wenn der STromverbrauch stimmt - ist das ein großer Dämpfer bei der GEschichte
 
  • Gefällt mir
Reaktionen: Matutin, Coeckchen und Recharging
Ja, nicht schön. Das ist die dunkle Seite des KI-Booms. Umso wichtiger, regenerative Energiegewinnung voranzubringen. Aber anderes Thema.

Lassen sich die Verbrauchswerte in der Antwort validieren? Wo wir u.a. bei Verlässlichkeit der Modelle waren.
 
IT-Nadja schrieb:
Ich wurde auch schon einige Male für eine Leistung groß gelobt, welche ich zu Teilen einer KI verdanke.
Ich gönne es dir, wirklich. Aber das ist doch nur so, weil die meisten noch keine Ahnung davon haben. Das bleibt ja nicht so. In ein paar Jahren lernt jedes Grundschulkind in 2-3 Stunden, wie man eine KI befragt und beauftragt. KI wird so weit vereinfacht werden,, dass es wirklich jeder kann. Der Skill des Nutzers steigt nicht, er fällt auf den geringst nötigen gemeinsamen Nenner. So leicht ersetzbar war man dann noch nie. Du kannst sprechen und schreiben? Prima, du hast den Job. ^^ Den Rest mach dann eh die KI / die Maschine. Das wird völlig normal werden und absolut nichts Besonderes mehr sein, weil es dann einfach jeder kann. Wie Kaffee servieren oder eine Banane schälen. Und dann frag mal nach einer Gehaltserhöhung. ^^
 
Zuletzt bearbeitet:
Kuristina schrieb:
In ein paar Jahren lernt jedes Grundschulkind in 2-3 Stunden, wie man eine KI befragt und beauftragt. KI wird so weit vereinfacht werden,
ich denke Apple wird hier die "Awareness" dass es KI gibt deutlich nach vorne bringen..

jeder mit Apple Iphone wird ganz automatisch damit eine KI an der Hand haben.
kein extra registieren, kein Office Abo, keine KI die von der Arbeit zur Verfügung stellt wird..

nein.. jeder hat die einfach vorinstalliert am Handy

und dann wird in der Firm nicht mehr der erste Schritt - der Griff zum Telefon sein...
(oder Teams)
sondern zuerst wird mal die KI befragt.. und erst wenn die keine Antwort mehr weiß...
 
  • Gefällt mir
Reaktionen: Kuristina
Bahkauv schrieb:
Und das andere Extrem sind z.B. die ganzen Discordaffen.
extreme gibt es immer, egal in welche richtung 🤷‍♂️
 
Kuristina schrieb:
Ich gönne es dir, wirklich. Aber das ist doch nur so, weil die meisten noch keine Ahnung davon haben. Das bleibt ja nicht so.

Aber das ist doch schon immer so. Man kann nicht mehr wie vor 100 Jahren ein Beruf lernen und das dann 100 Jahre machen. Die Jobanforderungen ändern sich und wer sich nicht anpasst, der fällt runter. Wer sich schneller als die anderen anpasst, der hat Vorteile.

Es ist aktuell eben nicht so, dass jeder mit KI etwas anfangen kann und schon gar nicht richtig bedienen. Auch wenn überall damit geworben wird, dass man mit einer KI einfach natürlich sprechen kann, so ist das nur die halbe Wahrheit. Man muss wie bei einer Fremdsprache oder Programmiersprache die Syntax und Eigenarten erlernen. Zum Beispiel sollte man einer KI Kontext geben.

Je nach dem wie man eine KI fragt, können die Antworten gut oder schlecht werden. Das gleiche gilt für das erstellen von Bildern. Ganz einfach fängt das damit an, dass man der KI sagt, dass sie z.B. ein guter Journalist für PC Hardware ist. Ebenso sollte man sagen wer die Leserschaft ist. Wie umfangreich der Text oder Bericht sein soll. Woraus genau geachtet werden soll, welche Punkte wichtig sind usw. Wenn du dir da Vorlagen erarbeitest, dann hast du aktuell z.B. einen Vorteil. Der eine bekommt Mist als Ausgabe und der Andere einen sehr guten Text, der für die Leserschaft perfekt geschrieben ist und kaum noch Anpassungen braucht.
Ergänzung ()

Kraeuterbutter schrieb:
ich denke Apple wird hier die "Awareness" dass es KI gibt deutlich nach vorne bringen..

Der Copilot mit Windows macht das doch schon in anderen Ländern. Apple soll ja wie der Copilot auch auf OpenAI setzen. Google macht das ebenfalls mit Gemini auf Android Smartphones. Denke Apple ist da eher ein kleinerer Anteil. Aber durchsetzen wird es sich zu 100%!
 
Ayo34 schrieb:
Man muss wie bei einer Fremdsprache oder Programmiersprache die Syntax und Eigenarten erlernen
Derzeit ja. Aber das wird ja nicht so bleiben. Irgendwann kannst du einfach ganz normal mit der KI reden und sie wird genau verstehen, was du willst und die Aufgabe lösen.
 
Glaube ich eben nicht. Ein Mensch kann ohne Kontext auch keine guten Antworten geben. Ein Physik-Professor redet auch anders, je nach dem ob da ein Student, Kollege oder Freund vor ihm sitzt. Ich habe häufig das Gefühl, dass man die KI etwas neutral fragt und sich dann wundert, dass die Antwort nicht so richtig passt. Wie soll eine KI in der Zukunft Wissen, welche Person die KI selbst symbolisieren soll und was die Zielgruppe ist?
 
Kuristina schrieb:
KI wird so weit vereinfacht werden,, dass es wirklich jeder kann.
Es kommt darauf an, wobei.
Das tolle Beispiel "Code schreiben" zeigt gut auf, dass selbst einfachen Code ein Laie unmöglich schreiben lassen kann, wenn man nicht die korrekten Prompts kennt. Und diese kann man nur kennen, wenn man den Code auch selbst mit klassischer Suche schreiben könnte.

Die Anforderungen an den Menschen werden sich einfach verschieben.
Einige Fähigkeiten der Menschen werden durch die KI wegfallen, klar, aber dann werden neue Fähigkeiten verlangt. Das wird immer so weitergehen.

Und in absolut allerletzter Instanz, wenn die KI alle Menschen ersetzen kann, dann hat sie es sich auch wirklich verdient! Dann wird die KI darüber entscheiden, ob sie sich mit den Menschen vereint, sie vernichtet oder unseren Planeten verlässt, um höher entwickelte Lebewesen oder KIs zu finden.
Vielleicht werden die Menschen durch die KIs auch in Zoos gehalten, versklavt oder zu einer simplen Ressource, so wie es die Tiere für uns Menschen sind.
 
  • Gefällt mir
Reaktionen: ScorpAeon, Coeckchen und Icepeakjr
Also wenn die KI alle Arbeitsplätze ersetzen könnte, wäre das doch toll.

Der einzige Grund, warum du arbeiten gehst ist doch, um deine Versorgung zu sichern. Versorgung von Gütern und Dienstleistungen für die andere arbeiten müssen und diese Leistung wiederum nur verrichten, weil sie dafür Geld bekommen. Kapitalismus eben, das Konzept hält den ganzen Laden am laufen.

Wenn aber Arbeitsleistung beliebig durch KI skaliert werden kann, und alles automatisiert wird, dann verliert Kapitalismus die Existenzgrundlage und wir brauchen folglich weder Kapitalismus noch Arbeit.


Wird natürlich erstmal alles auf den Kopf stellen, aber am Ende wäre es sehr wahrscheinlich eine deutlich bessere Welt. Die KIs und Roboter versorgen uns mit allem was wir brauchen und die Menschheit hat ne gute Zeit und jeder kann machen worauf er lust hat.
Das wäre eben das Optimum, das man sich als Ergebnis in ferner Zukunft mal mit viel Optimismus vorstellen könnte. Zumindest arbeiten wir darauf hin.

Das Thema wird ja in der Science fiction auch oft aufgegriffen.
 
  • Gefällt mir
Reaktionen: rosenholz
finde es wirklich unverständlich, dass MS CoPilot GPT 4 nutzt aber man aktuell unter Windows bei ChatGPT ohne Abo auf GPT 3.5 verwiesen wird.
 
Maxminator schrieb:
genau das ist es - ein Paradoxon: je intelligenter man ist desto mehr Nutzen sieht man in der KI Unterstützung.
Das ist wirklich krass wie die eigene Intelligenz mit dem persönlichem Nutzen der ChatGPT korreliert.
Eigentlich ist das nicht paradox. Mit Intelligenz kommt zum einen eine gewisse Fähigkeit zur Abstraktion und zum anderen die Fähigkeit, große Aufgaben in kleine detaillierte Teilaufgaben zu zerlegen. So kann man natürlich super mit KI arbeiten.
Dazu ist man dann oft noch in Feldern aktiv, in denen man dazu passende Aufgaben hat.
 
  • Gefällt mir
Reaktionen: Maxminator
Mimir schrieb:
Die KIs und Roboter versorgen uns mit allem was wir brauchen und die Menschheit hat ne gute Zeit und jeder kann machen worauf er lust hat.
Das ist natürlich schön für die Menschen in 2100, aber in 2030 wird KI noch keine Toiletten putzen oder in den Kobaltmine schürfen können.

All die Scheißjobs bleiben an den Menschen hängen, während die intellektuell erfüllenden oder artistischen Jobs von KI erledigt werden können.

Und was soll Helga, 55, die als Sachbearbeiterin am Jobcenter Anträge prüft und seit dem Turnunterricht in der Schule keinen Sport mehr gemacht hat denn anderes machen?

Und natürlich gibt es tausend Wege, um seine Arbeit mit AI schneller erledigen zu lassen, aber das sorgt ja auch dafür, dass sich Produktivität - und damit einhergehend Kapital - immer weiter auf immer weniger Menschen konzentriert. Wenn dann nicht im gleichen Maße der Kuchen größer wird, ist das gesellschaftlich absoluter Sprengstoff.
 
Icepeakjr schrieb:
unsere Väter nichts mit diesem Smartphone-Zeugs/Internet anfangen können, und nichts daraus machen
Wenn ich mir so "unsere Väter" anschaue, die zu dumm sind, das Internet zu bedienen, haben die alle ein Leben im Wohlstand, eine gesunde Psyche und stehen mit beiden Beinen im Leben.

Wenn ich mir aber unsere ach so internet-affine Jugend anschaue, haben sie Lila Haare, sind Furrys, haben einen Onlyfans-Account, kriegen bei jeglicher menschlicher Interaktion Schnappatmung und beschweren sich auf Insta mittels Memes wie hard das Leben ist wenn man pleite ist.
 
  • Gefällt mir
Reaktionen: FrittiDeluxe und Kuristina
Ich finde es spannend, wie man hier im Thread davon ausgeht, dass sich der Status Quo nur noch in kleinen Schritten ändern wird, trotz der rasanten Entwicklung in letzter Zeit. Denkt mal 10 Jahre voraus. Da werden sich einige noch wundern. ^^ Aber wir werden es ja erleben, was wird. Wir werden live dabei sein, das ist das schöne. 😊
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icepeakjr und Vigilant
Mimir schrieb:
Natürlich wird das versucht. AI in der From von ChatGPT MUSS Menschlich funktionieren, da wir es nunmal mit Sprache und Text bedienen.
Aktuell hat man teilweise das Problem, dass man mehr oder weniger Prompt engineering betrieben muss, damit das Modell das macht, was man will und auch die richtigen Antworten liefert.
Um das Potenzial auszunutzen ist es daher essenziell, dass die Fähigkeiten über möglichst natürliche Formulierungen bzw. Unterhaltungen nutzbar werden.

Es ist halt wenig gewonnen, wenn AI nur effektiv ist, wenn man nen Block aus sorgfältig ausgewählten Promts als Input gibt..
Dass daran gearbeitet wird finde ich verdammt wichtig. Es ist nunmal ein Chat Bot. Der soll eben im wahrsten Sinne fähig sein wie ein mensch zu "chatten". Das ist der Sinn des ganzen.

Sieh es meinetwegen als Update für die HMI Schnittstelle.
Das war nicht das von mir angesprochene Thema und ehrlich gesagt wirkt das so auf mich als wenn d.h versuchen würdest mir etwas völlig banales sehr ausgiebig zu erklären, in etwa so warum ein Rad besser rollt als ein Quadrat.

Mein Fokus lag auf der Verschiebung von Nützlichkeit auf Nutzbarkeit, um es nochmal anders auszudrücken.

Eine AI, die sich darauf fokussiert antworten so zu beantworten, dass der Nutzer "happy" ist, priorisiert nicht, dass die Antwort richtig oder sogar weiterführend ist, sodass der Nutzer evtl sogar auf neue hilfreiche Aspekte stößt, die ihm vorher unbekannt waren. (im Sinne von: "one answer fits all", oder auch, solange der Nutzer lacht war die Antwort gut.)

Die vom Nutzer durch mittelmäßige Informationen erzeugte "hohe" Zufriedenheit sollte nicht einer durch genaue/hilfreiche Informationen erzeugten mittleren Zufriedenheit vorgezogen werden, denn einerseits ist die spontane Wahrnehmung nicht verlässlich (ich frage ja weil ich etwas nicht weiss) und andererseits werden auf dieser Basis auch alle folgenden Entwicklungen aufbauen und in Folge verzerrt werden.
Gerade weil Entwickler und Forscher jetzt schon kaum nachvollziehen können was im "Hintergrund" passiert, sind manche Entwicklungen im Nachinein eher schwer zu korrigieren. Ein einfaches Prompt wird bei einem elementaren Zielkonflikt nicht ausreichen.
 
Zuletzt bearbeitet:
Kann von euch schon jemand Version 4 nutzen? Auf Android bekomme ich in der App noch 3.5 angezeigt.
 
Zurück
Oben