Persönlichkeitsentwicklung und Selbstverständnis lernen per KI

40 Beiträge in diesem Thema

Empfohlene Beiträge

vor 18 Stunden, DoItAgain schrieb:

Bei ChatGPT habe ich oft das Problem, dass um den heißen Brei gelabert wird oder er manchmal sogar gegensätzliche Antworten ausspuckt. Da hätte ich gern mehr Sicherheit, dass nicht fantasiert wird.

Das kommt wohl daher, dass dich die KI - wenn sie nicht super geschult und mit sehr vielen Informationen zu dir gefüttert ist - wie einen „Standardmenschen“ behandeln muss. Ein erfahrener Psychiater kann auf seine Intuition und Erfahrung zurückgreifen, um dich zu typisieren und eine bestimmte Richtung der Intervention festzulegen. Er kann dann deine (verbale, non-verbale) Reaktion darauf ebenfalls interpretieren, während KI ja mehr oder weniger davon abhängt, was du spontan „gut“ findest.

Aber, wie gesagt: das ist weniger ein grundsätzliches Problem, sondern lediglich eine Frage des Aufwands bzw. der Effizienz.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 21 Minuten, Sartre66 schrieb:

Das kommt wohl daher, dass dich die KI - wenn sie nicht super geschult und mit sehr vielen Informationen zu dir gefüttert ist - wie einen „Standardmenschen“ behandeln muss. Ein erfahrener Psychiater kann auf seine Intuition und Erfahrung zurückgreifen, um dich zu typisieren und eine bestimmte Richtung der Intervention festzulegen. Er kann dann deine (verbale, non-verbale) Reaktion darauf ebenfalls interpretieren, während KI ja mehr oder weniger davon abhängt, was du spontan „gut“ findest.

Aber, wie gesagt: das ist weniger ein grundsätzliches Problem, sondern lediglich eine Frage des Aufwands bzw. der Effizienz.

Hat jemand die gleichen Fragen Grok schon gestellt zum vergleich?

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 2 Stunden, Sartre66 schrieb:

Aber, wie gesagt: das ist weniger ein grundsätzliches Problem, sondern lediglich eine Frage des Aufwands bzw. der Effizienz.

Ich denke dahingehend wird sich die nächsten 1 - 2 Jahre einiges tun. Schließlich ist der Bedarf größer als das Angebot.

Nur bisher ist das alles zu wenig für Psychotherapie.

Tbh nutze ich KI für ein paar Dinge. Schnelles Übersetzen, Fact Checking/Aufdecken von Unwahrheiten, Brainstorming, schnelle Designideen, Hobbyprojekte die spezielles Wissen erfordern (zB. Elektrotechnik) usw.

Was mir etwas Sorgen macht, ist der Einfluss auf alle möglichen Professionen. ZB. Concept Artists.

Da wird die Luft immer dünner, je mehr KI kann. Weiß nicht ob wir uns damit einen Gefallen tun.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 6 Stunden, Sartre66 schrieb:

Das kommt wohl daher, dass dich die KI - wenn sie nicht super geschult und mit sehr vielen Informationen zu dir gefüttert ist - wie einen „Standardmenschen“ behandeln muss. Ein erfahrener Psychiater kann auf seine Intuition und Erfahrung zurückgreifen, um dich zu typisieren und eine bestimmte Richtung der Intervention festzulegen. Er kann dann deine (verbale, non-verbale) Reaktion darauf ebenfalls interpretieren, während KI ja mehr oder weniger davon abhängt, was du spontan „gut“ findest.

Ja, Du musst Chad schon recht intensiv füttern. Habe über 3 Wochen alle 2-3 Tage so 3-4 Stunden mit dem KI-Kollegen diskutiert über mich, meine Ansichten, meine Weltsicht, Philosophische Themen usw. Dabei kommen ja auch immer wieder Blindspots auf die man selbst noch nicht bedacht hat. Das sich die KI im Grunde kein sofortiges Urteil bilden kann über Auftreten und Aussehen, ist aus meiner Sicht eher ein großer Vorteil.

vor 3 Stunden, DoItAgain schrieb:

Was mir etwas Sorgen macht, ist der Einfluss auf alle möglichen Professionen. ZB. Concept Artists.

Da wird die Luft immer dünner, je mehr KI kann. Weiß nicht ob wir uns damit einen Gefallen tun.

Ja, da erwartet uns wirklich ein ziemlicher Schlag. Ich Diskutiere mit der KI auch viel bzgl Unternehmertum, lasse mir von ihr vorschlage zu Nutzung der KI in gewissen Bereichen geben und man macht schnellere Fortschritte in vielen Themen, als würde man sich jetzt 8 Stunden zusammensetzen zum Brainstorming. Man sollte besser früh als spät lernen die KI als teils Hochqualifizierten und nie schlafenden, Arbeitnehmer einzubinden der nur 24 Euro im Monat verdient.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 6 Stunden, DoItAgain schrieb:

 

Tbh nutze ich KI für ein paar Dinge. (…) Fact Checking/Aufdecken von Unwahrheiten (…)

Bitte, bitte nicht. Selbst positiv voreingenommene Quellen besagen im Großen und Ganzen, dass die Faktentreue zu wünschen übrig lässt:

“Originality.ai’s Fact Checking Aid has the highest accuracy at 72.3%. GPT-4 was second at 64.9%.“

https://originality.ai/blog/ai-fact-checking-accuracy 

Meiner Meinung nach ist es absolut katastrophal. Wenn ich schon einen fact check mache, dann strebe ich nicht eine Genauigkeit von 70%, sondern von 99% an.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

KI ist eine Maschine, die vollgestopft ist, mit dem was Menschen ihr eingegeben haben. Mehr auch nicht und abgerundet ist sie auch noch nicht. Diese Reflexionsgespräche können, wenn man denn mal die Emotionalität, die diese Maschine nicht nachvollziehen kann, eigene Gedankengänge präzisieren. Du bestehst aber aus mehr, als nur Gedanken. Dieses außer Acht zu lassen, wird somit einen Großteil deiner Selbst nicht erfassen und dir somit nur unzulänglich zur Seite stehen. Nichtsdestotrotz ist dies ein Weg, sich andere Perspektiven, wenn auch unvollständige, aufzeigen zu lassen. Ob du diese dann annimmst oder nicht, steht auf einem anderen Blatt.

Alles in deinem Leben ist eine Reflexion der Entscheidungen, die du getroffen hast. Wenn du andere Ergebnisse möchtest, dann musst du andere Entscheidungen treffen. 

Gleichwohl möchte ich daran erinnern, das Internet vergisst nichts !! Um dir also einen hinlänglichen Gesamteindruck schildern zu lassen, müsstest du immer mehr von dir preisgeben und hier liegt der Hase im Pfeffer. Mir persönlich wäre diese mitspielende Indiskretion zu gewagt. 

  • VOTE-4-AWARD 1

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 1 Stunde, anotherthing schrieb:

Bitte, bitte nicht. Selbst positiv voreingenommene Quellen besagen im Großen und Ganzen, dass die Faktentreue zu wünschen übrig lässt:

“Originality.ai’s Fact Checking Aid has the highest accuracy at 72.3%. GPT-4 was second at 64.9%.“

https://originality.ai/blog/ai-fact-checking-accuracy 

Meiner Meinung nach ist es absolut katastrophal. Wenn ich schon einen fact check mache, dann strebe ich nicht eine Genauigkeit von 70%, sondern von 99% an.

Benutze tatsächlich kein GPT4. Aber ich verstehe deine Bedenken.

Ist auch nicht so, dass ich es nutze um zu prüfen "Ist Aussage X zutreffend?", sondern dafür, größere Texte oder Konversationen nach Punkten zu durchsuchen, die genauere Aufmerksamkeit verdienen. Der Begriff "Fact Checking" war hier wohl etwas irreführend.

  • LIKE 1

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

ChatGPT hat mir im Studium so viel Arbeit abgenommen. Mit den Skripten gefüttert und Zusammenfassungen für Kartei Karten verlangt. Diese dann in Anki gepackt und gelernt. Da war es wirklich überragend. 
 

Auch für meine Masterarbeit hilft es mir enorm beim coden. Die Literaturrecherche ist aber grauenhaft. Da fantasiert es sich immer Quellen zusammen, die gar nicht existieren. 

  • LIKE 1

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 2 Stunden, SchalkeIstDieMacht schrieb:

Die Literaturrecherche ist aber grauenhaft. Da fantasiert es sich immer Quellen zusammen, die gar nicht existieren. 

Genau, das meine ich. Jede KI entwickelt (noch) recht viele Halluzinationen. Vor dem Hintergrund finde ich eine breite Nutzung z. B. durch Schülerschaft besorgniserregend - je weniger man über ein Thema weiß und je „denkfauler“ man ist, umso eher ist man geneigt, eine KI zu befragen, aber blöderweise hat man in einem solchen Fall eben keinerlei Kompetenz, Halluzinationen von tatsächlichen Fakten zu unterscheiden. Im schlimmsten Fall glaubt man anschließend, dass Napoleon den 2. Weltkrieg gewonnen hat.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
Am 4.2.2025 um 23:34 , anotherthing schrieb:

je „denkfauler“ man ist, umso eher ist man geneigt, eine KI zu befragen,

und je häufiger man eine KI befragt, desto denkfauler werden die Nutzer.


 

  • TOP 1

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
Am 4.2.2025 um 21:01 , SchalkeIstDieMacht schrieb:

ChatGPT hat mir im Studium so viel Arbeit abgenommen. Mit den Skripten gefüttert und Zusammenfassungen für Kartei Karten verlangt. Diese dann in Anki gepackt und gelernt. Da war es wirklich überragend. 
 

Auch für meine Masterarbeit hilft es mir enorm beim coden. Die Literaturrecherche ist aber grauenhaft. Da fantasiert es sich immer Quellen zusammen, die gar nicht existieren. 

Sehr interessant. Ich habe vor kurzem gehört, dass sich immer mehr Studenten auf ChatGPT verlassen und ihre Arbeiten damit schreiben. DARUM soll`s verboten werden, ChatGPT oder anderweitiges und derartiges nutzen zu dürfen. Mein Gedanke dazu: Wenn sich Studenten daran gewöhnen, jemand anderes die Arbeit machen zu lassen, wie wird dann das Zurückrudern, wenn`s nicht mehr zur Verfügung steht? 

Sinnbildlich: Ist immer leichter, die eigenen Muskeln zu benutzen, und durch Anstrengung stärker zu machen, als geschwächte neue aufzubauen....

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 3 Minuten, Firster schrieb:

Sehr interessant. Ich habe vor kurzem gehört, dass sich immer mehr Studenten auf ChatGPT verlassen und ihre Arbeiten damit schreiben. DARUM soll`s verboten werden, ChatGPT oder anderweitiges und derartiges nutzen zu dürfen. Mein Gedanke dazu: Wenn sich Studenten daran gewöhnen, jemand anderes die Arbeit machen zu lassen, wie wird dann das Zurückrudern, wenn`s nicht mehr zur Verfügung steht? 

Sinnbildlich: Ist immer leichter, die eigenen Muskeln zu benutzen, und durch Anstrengung stärker zu machen, als geschwächte neue aufzubauen....

Man muss schon aufpassen und wissen, was man macht. Beim zusammenfassen ist es überragend. 

Beim coden hilft es auch enorm, weil man so weniger Fehleranfällig für Typos ist und Repetetive Arbeit gut auslagern kann. Mein Betreuer hat mir auch empfohlen es so viel es geht dafür zu nutzen. Man muss aber dennoch den Code verstehen können und genaue Anweisungen geben, was gemacht werden soll. 

Arbeiten würde ich eher weniger damit schreiben. Aber beim umformulieren, Synonyme finden oder korrigieren hilft es ebenfalls enorm. 
 

Letztendlich muss man also wissen, wofür man es einsetzen kann und wo die Grenzen liegen. Dann nimmt es dir enorm viel Arbeit ab und gibt dir ebenfalls gute Denkanstöße, was man umsetzen könnte. Das denken muss man aber in vielen Fällen noch selber übernehmen. 

  • LIKE 1

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Man sollte keine Regeln aufstellen, deren Einhaltung man nicht kontrollieren kann. Soweit ich weiß, können AI-generierte Hausarbeiten etc. nicht einigermaßen zuverlässig von anderen unterschieden werden, so wie es z. B. bei Plagiatversuchen mit der Plagiatsoftware gemacht wird (auch da gibt es allerdings Lücken, deshalb „einigermaßen zuverlässig“). Daher halte ich persönlich ein Verbot für sinnfrei.

Das bedeutet aber nicht, dass ich die Gefahren der KI klein reden will.

  • LIKE 1

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 6 Minuten, SchalkeIstDieMacht schrieb:

Man muss schon aufpassen und wissen, was man macht. Beim zusammenfassen ist es überragend. 

Wäre es nicht formidabel, wenn man das vom User sagen könnte?

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
vor 5 Minuten, anotherthing schrieb:

Man sollte keine Regeln aufstellen, deren Einhaltung man nicht kontrollieren kann. Soweit ich weiß, können AI-generierte Hausarbeiten etc. nicht einigermaßen zuverlässig von anderen unterschieden werden, so wie es z. B. bei Plagiatversuchen mit der Plagiatsoftware gemacht wird (auch da gibt es allerdings Lücken, deshalb „einigermaßen zuverlässig“). Daher halte ich persönlich ein Verbot für sinnfrei.

Das bedeutet aber nicht, dass ich die Gefahren der KI klein reden will.

Keine Ahnung, kann nicht mitreden, hab`s nur gehört 🤷‍♂️ Ich denke und arbeite noch selbst. Aber das ist wahrscheinlich nur so ein Gewohnheitsding.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Mitgliedskonto, oder melde Dich an, um zu kommentieren

Du musst ein Mitgliedskonto haben, um einen Kommentar verfassen zu können

Mitgliedskonto erstellen

Registriere Dich ganz einfach in unserer Community.

Mitgliedskonto registrieren

Anmelden

Du hast bereits ein Mitgliedskonto? Melde Dich hier an.

Jetzt anmelden

  • Wer ist Online   0 Mitglieder

    Aktuell keine registrierten Mitglieder auf dieser Seite.