Sartre66 1003 Beitrag melden gestern um 08:09 geantwortet vor 18 Stunden, DoItAgain schrieb: Bei ChatGPT habe ich oft das Problem, dass um den heißen Brei gelabert wird oder er manchmal sogar gegensätzliche Antworten ausspuckt. Da hätte ich gern mehr Sicherheit, dass nicht fantasiert wird. Das kommt wohl daher, dass dich die KI - wenn sie nicht super geschult und mit sehr vielen Informationen zu dir gefüttert ist - wie einen „Standardmenschen“ behandeln muss. Ein erfahrener Psychiater kann auf seine Intuition und Erfahrung zurückgreifen, um dich zu typisieren und eine bestimmte Richtung der Intervention festzulegen. Er kann dann deine (verbale, non-verbale) Reaktion darauf ebenfalls interpretieren, während KI ja mehr oder weniger davon abhängt, was du spontan „gut“ findest. Aber, wie gesagt: das ist weniger ein grundsätzliches Problem, sondern lediglich eine Frage des Aufwands bzw. der Effizienz. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
smallPUA 945 Beitrag melden gestern um 08:30 geantwortet vor 21 Minuten, Sartre66 schrieb: Das kommt wohl daher, dass dich die KI - wenn sie nicht super geschult und mit sehr vielen Informationen zu dir gefüttert ist - wie einen „Standardmenschen“ behandeln muss. Ein erfahrener Psychiater kann auf seine Intuition und Erfahrung zurückgreifen, um dich zu typisieren und eine bestimmte Richtung der Intervention festzulegen. Er kann dann deine (verbale, non-verbale) Reaktion darauf ebenfalls interpretieren, während KI ja mehr oder weniger davon abhängt, was du spontan „gut“ findest. Aber, wie gesagt: das ist weniger ein grundsätzliches Problem, sondern lediglich eine Frage des Aufwands bzw. der Effizienz. Hat jemand die gleichen Fragen Grok schon gestellt zum vergleich? Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
DoItAgain 778 Beitrag melden gestern um 10:53 geantwortet vor 2 Stunden, Sartre66 schrieb: Aber, wie gesagt: das ist weniger ein grundsätzliches Problem, sondern lediglich eine Frage des Aufwands bzw. der Effizienz. Ich denke dahingehend wird sich die nächsten 1 - 2 Jahre einiges tun. Schließlich ist der Bedarf größer als das Angebot. Nur bisher ist das alles zu wenig für Psychotherapie. Tbh nutze ich KI für ein paar Dinge. Schnelles Übersetzen, Fact Checking/Aufdecken von Unwahrheiten, Brainstorming, schnelle Designideen, Hobbyprojekte die spezielles Wissen erfordern (zB. Elektrotechnik) usw. Was mir etwas Sorgen macht, ist der Einfluss auf alle möglichen Professionen. ZB. Concept Artists. Da wird die Luft immer dünner, je mehr KI kann. Weiß nicht ob wir uns damit einen Gefallen tun. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
A_guy_named_Who 325 Beitrag melden vor 21 Stunden geantwortet vor 6 Stunden, Sartre66 schrieb: Das kommt wohl daher, dass dich die KI - wenn sie nicht super geschult und mit sehr vielen Informationen zu dir gefüttert ist - wie einen „Standardmenschen“ behandeln muss. Ein erfahrener Psychiater kann auf seine Intuition und Erfahrung zurückgreifen, um dich zu typisieren und eine bestimmte Richtung der Intervention festzulegen. Er kann dann deine (verbale, non-verbale) Reaktion darauf ebenfalls interpretieren, während KI ja mehr oder weniger davon abhängt, was du spontan „gut“ findest. Ja, Du musst Chad schon recht intensiv füttern. Habe über 3 Wochen alle 2-3 Tage so 3-4 Stunden mit dem KI-Kollegen diskutiert über mich, meine Ansichten, meine Weltsicht, Philosophische Themen usw. Dabei kommen ja auch immer wieder Blindspots auf die man selbst noch nicht bedacht hat. Das sich die KI im Grunde kein sofortiges Urteil bilden kann über Auftreten und Aussehen, ist aus meiner Sicht eher ein großer Vorteil. vor 3 Stunden, DoItAgain schrieb: Was mir etwas Sorgen macht, ist der Einfluss auf alle möglichen Professionen. ZB. Concept Artists. Da wird die Luft immer dünner, je mehr KI kann. Weiß nicht ob wir uns damit einen Gefallen tun. Ja, da erwartet uns wirklich ein ziemlicher Schlag. Ich Diskutiere mit der KI auch viel bzgl Unternehmertum, lasse mir von ihr vorschlage zu Nutzung der KI in gewissen Bereichen geben und man macht schnellere Fortschritte in vielen Themen, als würde man sich jetzt 8 Stunden zusammensetzen zum Brainstorming. Man sollte besser früh als spät lernen die KI als teils Hochqualifizierten und nie schlafenden, Arbeitnehmer einzubinden der nur 24 Euro im Monat verdient. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
anotherthing 267 Beitrag melden vor 18 Stunden geantwortet vor 6 Stunden, DoItAgain schrieb: Tbh nutze ich KI für ein paar Dinge. (…) Fact Checking/Aufdecken von Unwahrheiten (…) Bitte, bitte nicht. Selbst positiv voreingenommene Quellen besagen im Großen und Ganzen, dass die Faktentreue zu wünschen übrig lässt: “Originality.ai’s Fact Checking Aid has the highest accuracy at 72.3%. GPT-4 was second at 64.9%.“ https://originality.ai/blog/ai-fact-checking-accuracy Meiner Meinung nach ist es absolut katastrophal. Wenn ich schon einen fact check mache, dann strebe ich nicht eine Genauigkeit von 70%, sondern von 99% an. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
Firster 1520 Beitrag melden vor 18 Stunden geantwortet KI ist eine Maschine, die vollgestopft ist, mit dem was Menschen ihr eingegeben haben. Mehr auch nicht und abgerundet ist sie auch noch nicht. Diese Reflexionsgespräche können, wenn man denn mal die Emotionalität, die diese Maschine nicht nachvollziehen kann, eigene Gedankengänge präzisieren. Du bestehst aber aus mehr, als nur Gedanken. Dieses außer Acht zu lassen, wird somit einen Großteil deiner Selbst nicht erfassen und dir somit nur unzulänglich zur Seite stehen. Nichtsdestotrotz ist dies ein Weg, sich andere Perspektiven, wenn auch unvollständige, aufzeigen zu lassen. Ob du diese dann annimmst oder nicht, steht auf einem anderen Blatt. Alles in deinem Leben ist eine Reflexion der Entscheidungen, die du getroffen hast. Wenn du andere Ergebnisse möchtest, dann musst du andere Entscheidungen treffen. Gleichwohl möchte ich daran erinnern, das Internet vergisst nichts !! Um dir also einen hinlänglichen Gesamteindruck schildern zu lassen, müsstest du immer mehr von dir preisgeben und hier liegt der Hase im Pfeffer. Mir persönlich wäre diese mitspielende Indiskretion zu gewagt. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
DoItAgain 778 Beitrag melden vor 16 Stunden geantwortet vor 1 Stunde, anotherthing schrieb: Bitte, bitte nicht. Selbst positiv voreingenommene Quellen besagen im Großen und Ganzen, dass die Faktentreue zu wünschen übrig lässt: “Originality.ai’s Fact Checking Aid has the highest accuracy at 72.3%. GPT-4 was second at 64.9%.“ https://originality.ai/blog/ai-fact-checking-accuracy Meiner Meinung nach ist es absolut katastrophal. Wenn ich schon einen fact check mache, dann strebe ich nicht eine Genauigkeit von 70%, sondern von 99% an. Benutze tatsächlich kein GPT4. Aber ich verstehe deine Bedenken. Ist auch nicht so, dass ich es nutze um zu prüfen "Ist Aussage X zutreffend?", sondern dafür, größere Texte oder Konversationen nach Punkten zu durchsuchen, die genauere Aufmerksamkeit verdienen. Der Begriff "Fact Checking" war hier wohl etwas irreführend. 1 Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
SchalkeIstDieMacht 106 Beitrag melden vor 15 Stunden geantwortet ChatGPT hat mir im Studium so viel Arbeit abgenommen. Mit den Skripten gefüttert und Zusammenfassungen für Kartei Karten verlangt. Diese dann in Anki gepackt und gelernt. Da war es wirklich überragend. Auch für meine Masterarbeit hilft es mir enorm beim coden. Die Literaturrecherche ist aber grauenhaft. Da fantasiert es sich immer Quellen zusammen, die gar nicht existieren. 1 Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen
anotherthing 267 Beitrag melden vor 13 Stunden geantwortet vor 2 Stunden, SchalkeIstDieMacht schrieb: Die Literaturrecherche ist aber grauenhaft. Da fantasiert es sich immer Quellen zusammen, die gar nicht existieren. Genau, das meine ich. Jede KI entwickelt (noch) recht viele Halluzinationen. Vor dem Hintergrund finde ich eine breite Nutzung z. B. durch Schülerschaft besorgniserregend - je weniger man über ein Thema weiß und je „denkfauler“ man ist, umso eher ist man geneigt, eine KI zu befragen, aber blöderweise hat man in einem solchen Fall eben keinerlei Kompetenz, Halluzinationen von tatsächlichen Fakten zu unterscheiden. Im schlimmsten Fall glaubt man anschließend, dass Napoleon den 2. Weltkrieg gewonnen hat. Diesen Beitrag teilen Link zum Beitrag Auf anderen Seiten teilen