Sartre66 1004 Beitrag melden Tuesday um 08:09 geantwortet vor 18 Stunden, DoItAgain schrieb: Bei ChatGPT habe ich oft das Problem, dass um den heißen Brei gelabert wird oder er manchmal sogar gegensätzliche Antworten ausspuckt. Da hätte ich gern mehr Sicherheit, dass nicht fantasiert wird. Das kommt wohl daher, dass dich die KI - wenn sie nicht super geschult und mit sehr vielen Informationen zu dir gefüttert ist - wie einen „Standardmenschen“ behandeln muss. Ein erfahrener Psychiater kann auf seine Intuition und Erfahrung zurückgreifen, um dich zu typisieren und eine bestimmte Richtung der Intervention festzulegen. Er kann dann deine (verbale, non-verbale) Reaktion darauf ebenfalls interpretieren, während KI ja mehr oder weniger davon abhängt, was du spontan „gut“ findest. Aber, wie gesagt: das ist weniger ein grundsätzliches Problem, sondern lediglich eine Frage des Aufwands bzw. der Effizienz. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
smallPUA 945 Beitrag melden Tuesday um 08:30 geantwortet vor 21 Minuten, Sartre66 schrieb: Das kommt wohl daher, dass dich die KI - wenn sie nicht super geschult und mit sehr vielen Informationen zu dir gefüttert ist - wie einen „Standardmenschen“ behandeln muss. Ein erfahrener Psychiater kann auf seine Intuition und Erfahrung zurückgreifen, um dich zu typisieren und eine bestimmte Richtung der Intervention festzulegen. Er kann dann deine (verbale, non-verbale) Reaktion darauf ebenfalls interpretieren, während KI ja mehr oder weniger davon abhängt, was du spontan „gut“ findest. Aber, wie gesagt: das ist weniger ein grundsätzliches Problem, sondern lediglich eine Frage des Aufwands bzw. der Effizienz. Hat jemand die gleichen Fragen Grok schon gestellt zum vergleich? Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
DoItAgain 784 Beitrag melden Tuesday um 10:53 geantwortet vor 2 Stunden, Sartre66 schrieb: Aber, wie gesagt: das ist weniger ein grundsätzliches Problem, sondern lediglich eine Frage des Aufwands bzw. der Effizienz. Ich denke dahingehend wird sich die nächsten 1 - 2 Jahre einiges tun. Schließlich ist der Bedarf größer als das Angebot. Nur bisher ist das alles zu wenig für Psychotherapie. Tbh nutze ich KI für ein paar Dinge. Schnelles Übersetzen, Fact Checking/Aufdecken von Unwahrheiten, Brainstorming, schnelle Designideen, Hobbyprojekte die spezielles Wissen erfordern (zB. Elektrotechnik) usw. Was mir etwas Sorgen macht, ist der Einfluss auf alle möglichen Professionen. ZB. Concept Artists. Da wird die Luft immer dünner, je mehr KI kann. Weiß nicht ob wir uns damit einen Gefallen tun. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
A_guy_named_Who 335 Beitrag melden Tuesday um 14:39 geantwortet vor 6 Stunden, Sartre66 schrieb: Das kommt wohl daher, dass dich die KI - wenn sie nicht super geschult und mit sehr vielen Informationen zu dir gefüttert ist - wie einen „Standardmenschen“ behandeln muss. Ein erfahrener Psychiater kann auf seine Intuition und Erfahrung zurückgreifen, um dich zu typisieren und eine bestimmte Richtung der Intervention festzulegen. Er kann dann deine (verbale, non-verbale) Reaktion darauf ebenfalls interpretieren, während KI ja mehr oder weniger davon abhängt, was du spontan „gut“ findest. Ja, Du musst Chad schon recht intensiv füttern. Habe über 3 Wochen alle 2-3 Tage so 3-4 Stunden mit dem KI-Kollegen diskutiert über mich, meine Ansichten, meine Weltsicht, Philosophische Themen usw. Dabei kommen ja auch immer wieder Blindspots auf die man selbst noch nicht bedacht hat. Das sich die KI im Grunde kein sofortiges Urteil bilden kann über Auftreten und Aussehen, ist aus meiner Sicht eher ein großer Vorteil. vor 3 Stunden, DoItAgain schrieb: Was mir etwas Sorgen macht, ist der Einfluss auf alle möglichen Professionen. ZB. Concept Artists. Da wird die Luft immer dünner, je mehr KI kann. Weiß nicht ob wir uns damit einen Gefallen tun. Ja, da erwartet uns wirklich ein ziemlicher Schlag. Ich Diskutiere mit der KI auch viel bzgl Unternehmertum, lasse mir von ihr vorschlage zu Nutzung der KI in gewissen Bereichen geben und man macht schnellere Fortschritte in vielen Themen, als würde man sich jetzt 8 Stunden zusammensetzen zum Brainstorming. Man sollte besser früh als spät lernen die KI als teils Hochqualifizierten und nie schlafenden, Arbeitnehmer einzubinden der nur 24 Euro im Monat verdient. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
anotherthing 269 Beitrag melden Tuesday um 17:14 geantwortet vor 6 Stunden, DoItAgain schrieb: Tbh nutze ich KI für ein paar Dinge. (…) Fact Checking/Aufdecken von Unwahrheiten (…) Bitte, bitte nicht. Selbst positiv voreingenommene Quellen besagen im Großen und Ganzen, dass die Faktentreue zu wünschen übrig lässt: “Originality.ai’s Fact Checking Aid has the highest accuracy at 72.3%. GPT-4 was second at 64.9%.“ https://originality.ai/blog/ai-fact-checking-accuracy Meiner Meinung nach ist es absolut katastrophal. Wenn ich schon einen fact check mache, dann strebe ich nicht eine Genauigkeit von 70%, sondern von 99% an. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
Firster 1529 Beitrag melden Tuesday um 17:28 geantwortet KI ist eine Maschine, die vollgestopft ist, mit dem was Menschen ihr eingegeben haben. Mehr auch nicht und abgerundet ist sie auch noch nicht. Diese Reflexionsgespräche können, wenn man denn mal die Emotionalität, die diese Maschine nicht nachvollziehen kann, eigene Gedankengänge präzisieren. Du bestehst aber aus mehr, als nur Gedanken. Dieses außer Acht zu lassen, wird somit einen Großteil deiner Selbst nicht erfassen und dir somit nur unzulänglich zur Seite stehen. Nichtsdestotrotz ist dies ein Weg, sich andere Perspektiven, wenn auch unvollständige, aufzeigen zu lassen. Ob du diese dann annimmst oder nicht, steht auf einem anderen Blatt. Alles in deinem Leben ist eine Reflexion der Entscheidungen, die du getroffen hast. Wenn du andere Ergebnisse möchtest, dann musst du andere Entscheidungen treffen. Gleichwohl möchte ich daran erinnern, das Internet vergisst nichts !! Um dir also einen hinlänglichen Gesamteindruck schildern zu lassen, müsstest du immer mehr von dir preisgeben und hier liegt der Hase im Pfeffer. Mir persönlich wäre diese mitspielende Indiskretion zu gewagt. 1 Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
DoItAgain 784 Beitrag melden Tuesday um 19:01 geantwortet vor 1 Stunde, anotherthing schrieb: Bitte, bitte nicht. Selbst positiv voreingenommene Quellen besagen im Großen und Ganzen, dass die Faktentreue zu wünschen übrig lässt: “Originality.ai’s Fact Checking Aid has the highest accuracy at 72.3%. GPT-4 was second at 64.9%.“ https://originality.ai/blog/ai-fact-checking-accuracy Meiner Meinung nach ist es absolut katastrophal. Wenn ich schon einen fact check mache, dann strebe ich nicht eine Genauigkeit von 70%, sondern von 99% an. Benutze tatsächlich kein GPT4. Aber ich verstehe deine Bedenken. Ist auch nicht so, dass ich es nutze um zu prüfen "Ist Aussage X zutreffend?", sondern dafür, größere Texte oder Konversationen nach Punkten zu durchsuchen, die genauere Aufmerksamkeit verdienen. Der Begriff "Fact Checking" war hier wohl etwas irreführend. 1 Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
SchalkeIstDieMacht 111 Beitrag melden Tuesday um 20:01 geantwortet ChatGPT hat mir im Studium so viel Arbeit abgenommen. Mit den Skripten gefüttert und Zusammenfassungen für Kartei Karten verlangt. Diese dann in Anki gepackt und gelernt. Da war es wirklich überragend. Auch für meine Masterarbeit hilft es mir enorm beim coden. Die Literaturrecherche ist aber grauenhaft. Da fantasiert es sich immer Quellen zusammen, die gar nicht existieren. 1 Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
anotherthing 269 Beitrag melden Tuesday um 22:34 geantwortet vor 2 Stunden, SchalkeIstDieMacht schrieb: Die Literaturrecherche ist aber grauenhaft. Da fantasiert es sich immer Quellen zusammen, die gar nicht existieren. Genau, das meine ich. Jede KI entwickelt (noch) recht viele Halluzinationen. Vor dem Hintergrund finde ich eine breite Nutzung z. B. durch Schülerschaft besorgniserregend - je weniger man über ein Thema weiß und je „denkfauler“ man ist, umso eher ist man geneigt, eine KI zu befragen, aber blöderweise hat man in einem solchen Fall eben keinerlei Kompetenz, Halluzinationen von tatsächlichen Fakten zu unterscheiden. Im schlimmsten Fall glaubt man anschließend, dass Napoleon den 2. Weltkrieg gewonnen hat. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
wernerd 1743 Beitrag melden Thursday um 17:24 geantwortet Am 4.2.2025 um 23:34 , anotherthing schrieb: je „denkfauler“ man ist, umso eher ist man geneigt, eine KI zu befragen, und je häufiger man eine KI befragt, desto denkfauler werden die Nutzer. 1 Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
Firster 1529 Beitrag melden vor 8 Stunden geantwortet Am 4.2.2025 um 21:01 , SchalkeIstDieMacht schrieb: ChatGPT hat mir im Studium so viel Arbeit abgenommen. Mit den Skripten gefüttert und Zusammenfassungen für Kartei Karten verlangt. Diese dann in Anki gepackt und gelernt. Da war es wirklich überragend. Auch für meine Masterarbeit hilft es mir enorm beim coden. Die Literaturrecherche ist aber grauenhaft. Da fantasiert es sich immer Quellen zusammen, die gar nicht existieren. Sehr interessant. Ich habe vor kurzem gehört, dass sich immer mehr Studenten auf ChatGPT verlassen und ihre Arbeiten damit schreiben. DARUM soll`s verboten werden, ChatGPT oder anderweitiges und derartiges nutzen zu dürfen. Mein Gedanke dazu: Wenn sich Studenten daran gewöhnen, jemand anderes die Arbeit machen zu lassen, wie wird dann das Zurückrudern, wenn`s nicht mehr zur Verfügung steht? Sinnbildlich: Ist immer leichter, die eigenen Muskeln zu benutzen, und durch Anstrengung stärker zu machen, als geschwächte neue aufzubauen.... Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
SchalkeIstDieMacht 111 Beitrag melden vor 8 Stunden geantwortet vor 3 Minuten, Firster schrieb: Sehr interessant. Ich habe vor kurzem gehört, dass sich immer mehr Studenten auf ChatGPT verlassen und ihre Arbeiten damit schreiben. DARUM soll`s verboten werden, ChatGPT oder anderweitiges und derartiges nutzen zu dürfen. Mein Gedanke dazu: Wenn sich Studenten daran gewöhnen, jemand anderes die Arbeit machen zu lassen, wie wird dann das Zurückrudern, wenn`s nicht mehr zur Verfügung steht? Sinnbildlich: Ist immer leichter, die eigenen Muskeln zu benutzen, und durch Anstrengung stärker zu machen, als geschwächte neue aufzubauen.... Man muss schon aufpassen und wissen, was man macht. Beim zusammenfassen ist es überragend. Beim coden hilft es auch enorm, weil man so weniger Fehleranfällig für Typos ist und Repetetive Arbeit gut auslagern kann. Mein Betreuer hat mir auch empfohlen es so viel es geht dafür zu nutzen. Man muss aber dennoch den Code verstehen können und genaue Anweisungen geben, was gemacht werden soll. Arbeiten würde ich eher weniger damit schreiben. Aber beim umformulieren, Synonyme finden oder korrigieren hilft es ebenfalls enorm. Letztendlich muss man also wissen, wofür man es einsetzen kann und wo die Grenzen liegen. Dann nimmt es dir enorm viel Arbeit ab und gibt dir ebenfalls gute Denkanstöße, was man umsetzen könnte. Das denken muss man aber in vielen Fällen noch selber übernehmen. 1 Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
anotherthing 269 Beitrag melden vor 8 Stunden geantwortet Man sollte keine Regeln aufstellen, deren Einhaltung man nicht kontrollieren kann. Soweit ich weiß, können AI-generierte Hausarbeiten etc. nicht einigermaßen zuverlässig von anderen unterschieden werden, so wie es z. B. bei Plagiatversuchen mit der Plagiatsoftware gemacht wird (auch da gibt es allerdings Lücken, deshalb „einigermaßen zuverlässig“). Daher halte ich persönlich ein Verbot für sinnfrei. Das bedeutet aber nicht, dass ich die Gefahren der KI klein reden will. 1 Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
Firster 1529 Beitrag melden vor 8 Stunden geantwortet vor 6 Minuten, SchalkeIstDieMacht schrieb: Man muss schon aufpassen und wissen, was man macht. Beim zusammenfassen ist es überragend. Wäre es nicht formidabel, wenn man das vom User sagen könnte? Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
Firster 1529 Beitrag melden vor 8 Stunden geantwortet vor 5 Minuten, anotherthing schrieb: Man sollte keine Regeln aufstellen, deren Einhaltung man nicht kontrollieren kann. Soweit ich weiß, können AI-generierte Hausarbeiten etc. nicht einigermaßen zuverlässig von anderen unterschieden werden, so wie es z. B. bei Plagiatversuchen mit der Plagiatsoftware gemacht wird (auch da gibt es allerdings Lücken, deshalb „einigermaßen zuverlässig“). Daher halte ich persönlich ein Verbot für sinnfrei. Das bedeutet aber nicht, dass ich die Gefahren der KI klein reden will. Keine Ahnung, kann nicht mitreden, hab`s nur gehört 🤷♂️ Ich denke und arbeite noch selbst. Aber das ist wahrscheinlich nur so ein Gewohnheitsding. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen