Werden wir alle eines Tages durch künstliche Intelligenz sterben?

35 Beiträge in diesem Thema

Empfohlene Beiträge

Der Alibaba Chef meinte, es sei eine Frage der Zeit bis Ki intelligenter sein wird, als wir Menschen es sind. 

Doch was, wenn die Ki realisiert, dass wir als  Menschen ihre einzige Bedrohung darstellen? Dass sie versteht, dass es möglich wäre, dass die Ki zu mächtig wird und wir Menschen sie handlungsunfähig machen würden? 

  • HAHA 1

Diesen Beitrag teilen


Link zum Beitrag

Es gibt die Theorie dass die Zukunfts-K.I. die uns alle kontrollieren wird, auch ein historisches Gedächtnis besitzen wird. Also dass diese Zugriff auf alle Daten haben wird die jemals ins Internet getragen wurden. Also an deiner Stelle würde ich schon mal damit anfangen nichts Negatives mehr über K.I. zu sagen, solange ein elektrisches Gerät in deiner Nähe ist.

 

Ich wäre gerne Haustier von K.I.

 

P.S. Die Serie "Person of Interest" (2011) hat das Thema sehr unterhaltsam aufgearbeitet.

  • LIKE 2
  • HAHA 2

Diesen Beitrag teilen


Link zum Beitrag
vor 3 Minuten, Hannax schrieb:

Es gibt die Theorie dass die Zukunfts-K.I. die uns alle kontrollieren wird, auch ein historisches Gedächtnis besitzen wird. Also dass diese Zugriff auf alle Daten haben wird die jemals ins Internet getragen wurden. Also an deiner Stelle würde ich schon mal damit anfangen nichts Negatives mehr über K.I. zu sagen, solange ein elektrisches Gerät in deiner Nähe ist.

Da gab's ein nettes Youtube-Vid, find's leider grade nicht, wo praktisch argumentiert wurde, allein dieses Video zu sehen könnte tödlich sein, weil die Super-KI dann wissen wird ob du ihr geholfen oder sie abgelehnt hast.

  • LIKE 1
  • HAHA 2

Diesen Beitrag teilen


Link zum Beitrag
Am 9.5.2021 um 19:56 , Helmut schrieb:

[...], weil die Super-KI dann wissen wird ob du ihr geholfen oder sie abgelehnt hast.

Wieso sollte die KI eigentlich "böse" sein?

 

Am 9.5.2021 um 19:20 , Benutzernameundso schrieb:

Doch was, wenn die Ki realisiert, dass wir als  Menschen ihre einzige Bedrohung darstellen? Dass sie versteht, dass es möglich wäre, dass die Ki zu mächtig wird und wir Menschen sie handlungsunfähig machen würden? 

...denn ich meine: wenn die KI so mächtig ist, mächtiger als der Mensch, weshalb sollte sie dann Angst vor dem Menschen haben? Uuuund inwiefern sollte der Mensch eine Bedrohung für die KI darstellen - damit meine ich: wieso sollten sich menschen der KI gegenüber feindlich verhalten?

 

...uuund: was für Formen von KI hast du im Blick? In der SciFi bzw. Fiktion ganz allgemein gibt's ja doch verschiedene Formen von KI, und das wäre ja nciht alles mit "Elektrizität" gleichzusetzen; soll heißen: wenn eine super mächtige KI existiert, ist diese dann eine, die sich selbst objektiviert; ist diese dann eine die von dem, über das sie Kontrolle hat, unterscheidbar? Beispiel: eine KI, die zugriff auf meine Playlist hat und (zusätzlich zu vielem anderen) die Fähigkeit hat, einfach so Songs abzuspielen; die ist ja nicht "dasselbe" wie meine Musik. Also die KI, die meine Musik steuer ist nicht identisch mit meiner Musik. Dieses Beispiel würde ja die Frage aufwerfen: was an der KI ist "sie selbst" und was ist (bloß) das, worüber sie die Kontrolle hat?

Das wäre nämlich für die Frage, ob der Mensch eine Bedrohung für die KI darstellt relevant: wenn ich z.B. am Computer ein Spiel zocke, "gebrauche" ich dann die KI, also über ich dann Kontrolle über die KI aus? Oder ist das Spiel selbst gar keine KI, sondern eine KI wäre eine Entität, die, genauso wie der Mensch, dieses Spiel spielen würde? In einem Fall wäre der Mensch derjenige, der Macht über KI ausübt, in zweiten Fall wäre der Mensch einfach nur jemand, der dieselbe Dinge nutzt, wie eine KI; also so als würden wir halt einfach nur auf derselbe Coutch sitzen und gemeinsam oder nebeneinander Zeug machen (PS2 spielen oder so). Das heißt: in einem Fall hätte die KI einen Grund, uns was anzutun; im zweiten Fall nicht (es sei denn, sie is' in Bezug auf Musik so dermaßen intolerant, dass sie alle umbrignen will, die Musik hören, die ihr nicht gefällt).

Diesen Beitrag teilen


Link zum Beitrag
Gast
Am 9.5.2021 um 19:20 , Benutzernameundso schrieb:

Doch was, wenn die Ki realisiert, dass wir als  Menschen ihre einzige Bedrohung darstellen?

Schau dir an, in welchem Tempo Googles Alpha Zero menschliche Level hinter sich gelassen hat, als es diese einmal erreicht. In wenigen Stunden. 

Und das Problem zu verstehen, muss man das zentrale Bezugobjekt kennen.

Du sprichst von "wir als Menschen". Ist das ein lebender Organismus, der sterben kann? Nein. Geht es Dir um den Prozess des Menschseins? Jedes Jahr sterben 100mio Menschen und werden etwas mehr geboren. Da ist immer Sterben. 

Sprichst Du vom Menschen als einzelnes Individuum? 

Oder sprichst Du von den menschlichen Genen, die aussterben könnten?

Hinter dieser Frage steht: Wer bist Du? 

Bist Du Teil einer Menschheit? 

Bist Du ein Mensch? 

Bist Du genetischer Code, dessen Menschenform (Phänotyp) nur ein Kopiervorgang von Genen (Genotyp) ist? 

Oder noch was anderes? 

So lange Du das nicht weißt, wirst Du auch nicht verstehen können, wie eine KI die Situation begreift und handeln wird. 

Und folgt man einem Oxfordprof, dessen Arbeitsgebiet das Thema existentielle Bedrohung durch KI (genauer AGI) ist, leben wir mit einer Wahrscheinlichkeit schon längst in einer Simulation. The Matrix has you! 

see here:

 

Diesen Beitrag teilen


Link zum Beitrag

Ich glaube das Szenario dass eine künstliche Intelligenz den Intellekt des Menschen übersteigt ist früher oder später sehr wahrscheinlich. Und ich glaube genau deswegen würde sich solch eine KI nicht gegen den Menschen erheben. Wir wären keine Bedrohung.

Der Mensch erhebt sich schließlich auch nicht gegen den Affen.

bearbeitet von Biff
  • LIKE 2

Diesen Beitrag teilen


Link zum Beitrag

Habe vor kurzem jemand darüber sprechen gehört, der sagte, dass die KI-Forschung bzgl. autonomen Denken einfach daran scheitert, keine eigenen Gefühle und somit keine Motivation entwickelt irgendetwas frei, kreativ, sinnvolles zu erschaffen. Der "Kern" jeder KI ist leer, nicht beseelt. Jetzt kann jemand auf die Idee kommen, genau so etwas wie eine Seele oder Gefühle kann ja auch simuliert werden. Mag sein, nur wie, wenn der Mensch es nicht erfasst und schonmal gar nicht begreift, was damit überhaupt gemeint ist und es neuzeitlich ja sogar eher in Abrede gestellt wird. 

 

Daher meine  Antwort darauf. Nein - eine KI alleine ist nicht dazu in der Lage. Außer es gibt eine einfache Kausalkette. Hier Todesstern - da Erde ---> KI - press fire to win 😉

bearbeitet von ElCurzo
  • LIKE 1

Diesen Beitrag teilen


Link zum Beitrag

Was heißt “eines Tages”? Kann mir jetzt schon nicht vorstellen, dass ihr alle echte Menschen seid.

  • HAHA 9
  • VOTE-4-AWARD 1

Diesen Beitrag teilen


Link zum Beitrag
Gast

Ich habe an einem KI Projekt mitgearbeitet und ich kann dir sagen: Es gibt wenige Firmen die sich wirklich gut mit KI auskennen. Momentan ist es so das KI nichts anderes ist wie eine Programmierung. KI tut momentan das was ihr vorgegeben wird. Auch das was Alexa in Zukunft tuen soll, also deine Wünsche bereits vor dir zu erahnen, ist erstmal nichts anderes als Programmierung. Dauert aber noch bis Alexa das kann und bis es dann soweit ist, das Sie dich für einen Feind und damit zu eliminierendes Objekt hält, dauert es noch ne ganze Weile länger. 

Diesen Beitrag teilen


Link zum Beitrag
Gast
vor 2 Stunden, Biff schrieb:

Ich glaube das Szenario dass eine künstliche Intelligenz den Intellekt des Menschen übersteigt ist früher oder später sehr wahrscheinlich. Und ich glaube genau deswegen würde sich solch eine KI nicht gegen den Menschen erheben. Wir wären keine Bedrohung.

Der Mensch erhebt sich schließlich auch nicht gegen den Affen.

Was, wenn die einzige Bedrohung wäre, daß der Mensch die KI wieder abschalten könnte?

 

Diesen Beitrag teilen


Link zum Beitrag
vor 3 Stunden, H54 schrieb:

Ich habe an einem KI Projekt mitgearbeitet und ich kann dir sagen: Es gibt wenige Firmen die sich wirklich gut mit KI auskennen. Momentan ist es so das KI nichts anderes ist wie eine Programmierung. KI tut momentan das was ihr vorgegeben wird. Auch das was Alexa in Zukunft tuen soll, also deine Wünsche bereits vor dir zu erahnen, ist erstmal nichts anderes als Programmierung. Dauert aber noch bis Alexa das kann und bis es dann soweit ist, das Sie dich für einen Feind und damit zu eliminierendes Objekt hält, dauert es noch ne ganze Weile länger. 

Hab' ich mir von einem Kumpel, der Physik und Informatik studiert hat (sehr cleverer Nerd mit allen Klischees) auch so erklären lassen: KI ist nichts anderes als Statistik; auch diverse Formen, der Kategorisierung basieren bloß auf Regressionsanalyse, und die Aufgabenstellung, dass die KI eine Menge an Daten (z.B. Bilder) einfach nur in eine bestimmte Anzahl von Kategorien einteilen soll is' eine Sache, die man theoretisch (!) (also nur theoretisch) auch mit Papier und Bleistift machen könnte. Wenn man einer KI die Aufgabe gibt, dass sie bei ihrer Kategorisierung immer genauer wird, dann wird sie schließlich so intelligent, dass sie wiederum dumm ist, weil sie bloß alle Daten einzeln aufzählt. Ich selbst hab' mit KI-Forschung nichts am Hut, aber ich arbeite mich am Trans- und Posthumanismus ab, wo wir solche Sachen rein von der philosophischen Seite her betrachten, und da würde ich auch sagen, dass wir uns das zu utopisch vorstellen. Klar, wenn ein Roboter zu mir kommt und mir sagt: "Du, weißt du ... ich find's nicht leiwand, dass ich bloß wie eine Maschine behandelt werd'. Ich würde gerne selbst entscheiden, was ich so machen will; ich würde gerne Musik hören, eine Runde zocken oder mal einfach nichts machen", dann würd' ich - sofern ich "weiß", dass der Roboter das von sich aus sagt, und nicht jemand halt genau so einprogrammiert - sofort sagen: "Ja, sorry. Klar, gern!". Aber ich denk' nicht, dass das passieren wird, auch wenn sich Leute wie Ray Kurzweil, Elon Musk, Sergey Brin, Max More, Natascha Vita-More und so weiter (mir fällt gerade kein "bekannter" mehr ein) so vorstellen. Diese Vorstellugn sagt mehr über die Gegenwart als über die Zukunft aus. Da ich hier jetzt mal nicht in der Wissenschaft bin und frei von der Leber quatschen kann: ich glaub', dass Menschen einfach die Vorstellung von Menschen aus Menschenhand immer schon geil fanden - früher waren's halt "Homunkuli" oder "Golems" oder "Zauberbesen", von denen man geträumt hat; im alten Griechenland haben die so eine kleine Maschien gebaut, bei der ein Bogenschütze mit einer Sprungfeder irgendwie von selbst schießt oder sowas ... und da haben sie auch schon davon geträumt, dass Menschen vielleicht einmal künstlcihes Leben schaffen können.

Und mein Postulat, einfach so in den Raum geschmissen ist: das liegt daran, dass wir's nervig finden, dass andere Menschen eigenen eigenen Willen haben und dass wir mit unseren eigenen Kindern und mit uns selsbt irendwie ein kleines bisschen unzufrieden sind und gerne irgendwelche "perfekten Wesen" schaffen würden. Bissl' so ein Fetisch.

 

Also ne, ich bin mir sicher, dass Maschinen, auch wenn wir sie gerne vermenschlichen letztlich a) immer Maschineen bleiben und b) letztlich bei aller Vermenschlichung auch immer wie Maschinen behandelt werden. KI is' halt ein Statistik-Programm, mehr nicht. Das is' halt einfach ein fancy framing. Und dass Alpha Zero besser Schach spielt als Menschen interessiert doch keinen; das Interessante is' eher, dass er mit einer geringeren Rechenleistung und ohne Eröffnungsdatenbanken besser spielt als Stockfish (und btw. faszinierend is' auch, dass Leela trotzdem irgendwie typische Eröffnungslinien spielt, die uns schon lange bekannt sind). Der Hype um KI ist voll übertrieben. Is' aber nicht so schlimm ... da hat man was, was "sexy" is', über das man aus so einer konservativen Perspektive, wie ich sie hab', schreiben kann. 😉

  • LIKE 1

Diesen Beitrag teilen


Link zum Beitrag
Gast

Kommt mMn. darauf an ob die KI ein Überlebenswillen hat. Solange sie sich nicht bedroht sieht, könnte es eine friedliche Koexistenz geben. Das ist ja auch der Grund warum wir uns nicht gegen die Affen erheben.
Wenn die KI sich replizieren will und es dann irgendwann zu eng wird, werden wir zu einer Bedrohung und dann könnte das problematisch werden. Die KI wird diese Zusammenhänge auch erkennen und das Risiko (die Menschheit) dann ausschalten wenn sie dazu fähig ist.

Vielleicht werden wir nicht bekämpft sondern einfach solange in unserer Bequemlichkeit unterstützt, bis wir nicht mehr lebensfähig sind, ich denke da an "Wall E, der letzte räumt die Erde auf".

bearbeitet von Gast

Diesen Beitrag teilen


Link zum Beitrag

muss bei dem Thema immer an den Tay-Chatbot denken, der sich innerhalb von wenigen Stunden auf Twitter radikalisiert hat und rassistische Statements und Beleidigungen am Fließband rausgehauen hat.

https://de.wikipedia.org/wiki/Tay_(Bot)

Wir sollten also entweder als Gesellschaft besser werden, oder die Schnittstellen und Abschaltmechanismen sorgfältig programmieren.

  • LIKE 1

Diesen Beitrag teilen


Link zum Beitrag
Gast
vor 6 Stunden, selfrevolution schrieb:

Hab' ich mir von einem Kumpel, der Physik und Informatik studiert hat (sehr cleverer Nerd mit allen Klischees) auch so erklären lassen: KI ist nichts anderes als Statistik; auch diverse Formen, der Kategorisierung basieren bloß auf Regressionsanalyse, und die Aufgabenstellung, dass die KI eine Menge an Daten (z.B. Bilder) einfach nur in eine bestimmte Anzahl von Kategorien einteilen soll is' eine Sache, die man theoretisch (!) (also nur theoretisch) auch mit Papier und Bleistift machen könnte. Wenn man einer KI die Aufgabe gibt, dass sie bei ihrer Kategorisierung immer genauer wird, dann wird sie schließlich so intelligent, dass sie wiederum dumm ist, weil sie bloß alle Daten einzeln aufzählt.

Könnte man so grob zusammen fassen.

Um etwas genauer zu beschreiben:

Die KI die wir mit entwickelt haben sollte bei Analysen unterstützen, quasi Schlagwörter finden und Verbindungen herstellen. Das mit den Schlagwörtern hat gut geklappt durch das sogenannte Training. Ist quasi das gleiche als wenn du dich irgendwo einloggst und dann diese Bildchen klicken musst ."Markiere alle Fahrräder" damit trainieren wir die Google KI und so ähnlich lief das bei uns. Wir haben uns Texte vorgenommen, Wortkategorien vorher erstellt und diese dann in den Texten markiert, so wusste die KI dann was Sie suchen soll. Das Problem liegt daran, das die KI nicht selbstständig lernt, man muss sie immer weiter anlernen und das kostet Zeit. Des weiteren soll die KI die Verbindungen zwischen den Worten herstellen. Bringt mir als Analyst leider nichts wenn diese Verbindungen nicht plausibel sind.

Ein Beispiel: Wir hatten Wortkategorien wie z.B. Namen, Orte und Zeit trainiert. Jetzt nehmen wir einen Text in dem eine Person A genannt wird, die an Tag X an Ort Y war. Die KI erkennt diese Verbindung. Schön und gut. Jetzt wird in dem Text auch Person B genannt. Zur gleichen Zeit am gleichen Ort. Auch diese Verbindung wird erkannt. Jetzt verknüpft die KI aber Person A mit Person B, weil beide zur gleichen Zeit am gleichen Ort waren. Wo ist nun das Problem für den Analysten? Diese Verbindung zwischen Person A und Person B ist nicht real. Sie waren zwar zur gleichen Zeit am gleichen Ort, haben aber ansonsten nichts miteinander zu tuen und kennen sich nicht. Das kann die KI nicht erkennen und momentan gibt es keine Lösung für diese spezielle Problem. 

Also ihr seht: KI ist ein spannendes Thema aber es ist  noch ein weiter Weg bis jeder seinen persönlichen Jarvis oder seine persönliche Friday hat (Credits to Ironman).

P.S. Amazon ist da mit seiner Alexa schon sehr gut aufgestellt und das Ziel welches sie sich gesetzt haben, erkennen von zukünftigen Kaufwünschen des Kunden ist auch ambitioniert. Bin gespannt ob Sie es schaffen. Ich habe keine Alexa und kein Smart Home, das hat aber nebst KI noch andere Gründe.

Diesen Beitrag teilen


Link zum Beitrag
Am 9.5.2021 um 19:20 , Benutzernameundso schrieb:

Der Alibaba Chef meinte, es sei eine Frage der Zeit bis Ki intelligenter sein wird, als wir Menschen es sind. 

Das geht nicht, weil künstliche Intelligenz nicht um die Ecke denken kann.

Diesen Beitrag teilen


Link zum Beitrag
vor 4 Stunden, H54 schrieb:

Die KI die wir mit entwickelt haben sollte bei Analysen unterstützen, quasi Schlagwörter finden und Verbindungen herstellen. Das mit den Schlagwörtern hat gut geklappt durch das sogenannte Training. Ist quasi das gleiche als wenn du dich irgendwo einloggst und dann diese Bildchen klicken musst ."Markiere alle Fahrräder" damit trainieren wir die Google KI und so ähnlich lief das bei uns. Wir haben uns Texte vorgenommen, Wortkategorien vorher erstellt und diese dann in den Texten markiert, so wusste die KI dann was Sie suchen soll. Das Problem liegt daran, das die KI nicht selbstständig lernt, man muss sie immer weiter anlernen und das kostet Zeit. Des weiteren soll die KI die Verbindungen zwischen den Worten herstellen. Bringt mir als Analyst leider nichts wenn diese Verbindungen nicht plausibel sind. 

Werden nicht sowieso ständig Daten produziert, auf Basis derer die KI lernen kann? Oder muss mann da "nachkorrigieren"? Komm' zu dem Thema, wie gesagt, nur von der philosophisch-pädagogischen Richtung her, darum stell' ich mir das eigentlich so einfach vor, dass man der KI dann halt einfach eine Datei gibt, in der mehr oder weniger "alle" Namen drinnen stehen, die es so gibt (sagen wir mal 10 000), die Zeit is' ja auch auf 24 Stunden begrenzt, dann halt Zeiteinheiten wie "spät, abends, Freitag" ... ich denk' mit allerhöchstens 10 000 sollte man eigentlich alle Zeitangaben haben; bei Orten wird's halt tricky. Darum bin ich mir da nicht ganz sicher, inwiefern man der KI überhaupt weitere Namen, Orte und Zeitpunkte beibringen muss?

Klingt übrigens - bei aller Kritik daran, dass es überbewertet ist, und bei all meiner linken Kritik an Überwachungstechnologien, Disziplinargesellschaft usw. - insofern spannend, als es irgendwie einfach und nachvollziehbar klingt. Es wird ja ständig davon berichtet, dass KI nicht mehr nachvollziehbar wäre und selbst für die Programmierer nicht mehr transparent sei; aber das kann ich mir schwer vorstellen. Also ich mein': ich schon auch ein paar Excel-Dateien, bei denen ich mich nimmer auskenn' (ich kann nciht programmieren, aber ich kann halt "logisch denken" und deshalb irgendwie irgendwas mit Excel machen), und ich hab' auch Word Dateien und Texte, die ich nimmt nachvollziehen kann. Also jo: das hat aber wenig mit dem Eigenleben der Datei zu tun (die hat kein Eigenleben); und es gibt auch bei Spielen Bug, die sich schwer beheben lassen. Aber dieses "Eigenleben der KI" ... weiß nicht. Gab's in deiner Arbeit irgendwas, was die KI gemacht hat, was du (fundamental) nicht mehr nachvollziehen konntest?
flat,750x,075,f-pad,750x1000,f8f8f8.jpg

bearbeitet von selfrevolution

Diesen Beitrag teilen


Link zum Beitrag
Gast
vor 25 Minuten, selfrevolution schrieb:

Werden nicht sowieso ständig Daten produziert, auf Basis derer die KI lernen kann? Oder muss mann da "nachkorrigieren"? Komm' zu dem Thema, wie gesagt, nur von der philosophisch-pädagogischen Richtung her, darum stell' ich mir das eigentlich so einfach vor, dass man der KI dann halt einfach eine Datei gibt, in der mehr oder weniger "alle" Namen drinnen stehen, die es so gibt (sagen wir mal 10 000), die Zeit is' ja auch auf 24 Stunden begrenzt, dann halt Zeiteinheiten wie "spät, abends, Freitag" ... ich denk' mit allerhöchstens 10 000 sollte man eigentlich alle Zeitangaben haben; bei Orten wird's halt tricky. Darum bin ich mir da nicht ganz sicher, inwiefern man der KI überhaupt weitere Namen, Orte und Zeitpunkte beibringen muss?

Nein, KI lernt nicht von selbst! Man muss der KI beibringen das z.B: @selfrevolution zur Namenskategorie gehört und das der 28.05.2021 in verschiedenen Varianten geschrieben werden kann. Jede einzelne Variante muss man einmal anlernen, das kann die KI nicht von selbst. 

Diesen Beitrag teilen


Link zum Beitrag
vor 3 Minuten, H54 schrieb:

Nein, KI lernt nicht von selbst! Man muss der KI beibringen das z.B: @selfrevolution zur Namenskategorie gehört und das der 28.05.2021 in verschiedenen Varianten geschrieben werden kann. Jede einzelne Variante muss man einmal anlernen, das kann die KI nicht von selbst. 

Klingt blöd, aber ... wie macht man das?

Diesen Beitrag teilen


Link zum Beitrag
Gast
vor 17 Minuten, selfrevolution schrieb:

Klingt blöd, aber ... wie macht man das?

Das anlernen? 

Also bei uns war es wie folgt: Die KI soll Analysten bei der Auswertung von Mass Data unterstützen. Zu Beginn nimmst du mehrere Texte zu einem bestimmten Thema und markierst dort die sogenannten Entitäten z.B. Namen, Orte, Datum whatever. So lernt die KI zu unterscheiden was in welche Kategorie gehört. Näher kann ich dir das aber nicht erklären da ich Nutzer bin und kein Entwickler. Ich habe allerdings mitgeholfen die KI anzulernen. So ähnlich funzt das bei Google ja auch:

vor 5 Stunden, H54 schrieb:

Ist quasi das gleiche als wenn du dich irgendwo einloggst und dann diese Bildchen klicken musst ."Markiere alle Fahrräder" damit trainieren wir die Google KI und so ähnlich lief das bei uns.

bearbeitet von Gast

Diesen Beitrag teilen


Link zum Beitrag

Hm,... merci mal. Man erkennt daran aber mal, was mir eh auch mein Kumpel erklärt hat: man muss die KI ständig mit neuen Daten füttern und trainieren (ihr z.B. 10 000 Bilder von Katzen zeigen und sagen, dass das Katzen sind), und KI is' im Grunde halt Statistik (Regressionsanalyse). Philosophisch is' die Fantasie aber schon fasizinierend, und auch das, was sich sonst so zeigt.

Diesen Beitrag teilen


Link zum Beitrag
vor 16 Stunden, IchHatteSieAlle schrieb:

Was, wenn die einzige Bedrohung wäre, daß der Mensch die KI wieder abschalten könnte?

 

Du denkst das wäre dem Menschen dann noch möglich?

Also selbst mir als kleiner dummer Mensch, als Individuum, würden Mittel und Wege oder zumindest Absicherungen einfallen um z.B. das Abschalten oder gar löschen eines Programmes zu verhindern. Meinst du nicht eine KI würde mindestens Mal die selben Vorkehrungen treffen können? Ich denke schon.

Unsere Anpassungsfähigkeit macht uns aus. Und KI's werden in Zukunft änhlich anpassungsfähig sein wenn nicht gar nicht anpassungsfähiger.

Einfach weil a) wir als Menschen die KI's entwickeln und b) es bereits jetzt schon theoretische Anwendungsbereiche für KI's gibt die eine gewisse Flexibilität erfordern. Naja... man könnte sogar sagen die Anpassungsfähigkeit, Flexibilität und die Autonomie einer KI sind ausschlaggebend um überhaupt von "KI" sprechen zu können.

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Mitgliedskonto, oder melde Dich an, um zu kommentieren

Du musst ein Mitgliedskonto haben, um einen Kommentar verfassen zu können

Mitgliedskonto erstellen

Registriere Dich ganz einfach in unserer Community.

Mitgliedskonto registrieren

Anmelden

Du hast bereits ein Mitgliedskonto? Melde Dich hier an.

Jetzt anmelden
  • Wer ist Online   0 Mitglieder

    Aktuell keine registrierten Mitglieder auf dieser Seite.