Zitat von Methusalem im Beitrag #175@Prometheus @all: Meine Sorge ist eher die: Wenn die KI jetzt "virtuelle" neuronale Netze hat und jetzt sogar echte, lebende Neuronen verwendet werden... Wann ist der Moment erreicht, indem es nicht nur ein mathematisches Werkzeug ist, sondern wir dieser Entität eigentlich die Eigenschaften einer Person zuweisen müssten?
Wohl spätestens dann, wenn es die z. B. von Elon Musk favorisierten Cyborgs in nennenswerter Zahl gibt. So wie heute schon versehrte oder "behinderte" Sportler, z. B. mit hochmodernen Beinprothesen, physisch weit besser sind als normale, gesunde Menschen, so wird das bei Cyborgs intellektuell ein Quantensprung werden.
Zitat von Methusalem im Beitrag #175@Prometheus @all: Meine Sorge ist eher die: Wenn die KI jetzt "virtuelle" neuronale Netze hat und jetzt sogar echte, lebende Neuronen verwendet werden... Wann ist der Moment erreicht, indem es nicht nur ein mathematisches Werkzeug ist, sondern wir dieser Entität eigentlich die Eigenschaften einer Person zuweisen müssten?
Letzteres wird nie passieren. KI wird immer eine Maschine bleiben, da ändern auch lebende Neuronen nichts dran, falls das überhaupt wirklich möglich ist.
Diese Programme erkennt man bis jetzt auf jeden Fall immer, sogar ziemlich leicht, so intelligent sie auch oft programmiert sind.
Ich stimme zu, dass es doch sehr nach Science-Fiction liegt, was ich hier sage. Aber bisher habe ich bei sowas zumeist keine schlüssige Argumentation mitbekommen, warum es unmöglich sein soll.
Man kann vielleicht noch bei KIs argumentieren, dass denen irgendeine Eigenschaft eines menschlichen Gehirns fehlt, weswegen es ewig Maschinen bleiben werden. Spätestens jetzt nicht mehr.
Zitat von Prometheus im Beitrag #174Welche Regeln eine KI befolgen muss, sollte definitiv nicht nur im Ermessen des Konzerns liegen, der diese KI entwickelt.
Warum nicht? Das würde immerhin den Wettbewerb fördern. Mir passt das Woke nicht? Dann geh ich zur anderen KI, deren Meinungen mir besser gefallen. Wenn irgendwelche überbezahlten Bürokraten Gesetze schaffen, um KI zu ihrem Vorteil zu regulieren, wird sie wahrscheinlich noch schlechter als vorher. Außer du glaubst unsere Bürokraten wären neutral.
Ich kann deine Argumentation nachvollziehen. Allerdings gibt es ja noch andere Mitmenschen auf der Welt, die die KI auch auf eine dich schädigende Weise einsetzen können - und du solltest ein Recht auf Schutz davor besitzen. Als Autos erfunden wurden, gab es erst auch noch keine Verkehrsregeln. Die wurden dann aber notwendig. Natürlich kannst du eine KI nach deinem Geschmack wählen wie ein Auto - Ferrari oder Hummer, je nach Präferenz und Geldbeutel. Aber ganz ohne Verkehrsregeln wird das nicht funktionieren. Derzeit gibt es de facto noch gar keine spezifischen gesetzlichen KI-Reglementierungen. Klar, auch Bürokraten haben ihre eigene Agenda. Nicht jede Tempo 30-Umweltzone ist nachvollziehbar. Aber eine vollständige Anarchie ist auch nicht erstrebenswert, da kippt man das Kind mit dem Bade aus!
Zitat von Prometheus im Beitrag #180Allerdings gibt es ja noch andere Mitmenschen auf der Welt, die die KI auch auf eine dich schädigende Weise einsetzen können - und du solltest ein Recht auf Schutz davor besitzen.
Da gibt es aus meiner Sicht keinen großen Unterschied zu Suchmaschinen, es ist also bereits geregelt. Selbst wenn, dann sollte es erst das Problem geben und dann die Lösung, nicht umgekehrt.
Zitat von Prometheus im Beitrag #180Aber eine vollständige Anarchie ist auch nicht erstrebenswert, da kippt man das Kind mit dem Bade aus!
Ich habe das Internet schon um 2000 rum erlebt, als es noch "anarchisch" war - meiner Meinung nach war das deutlich besser! Heute öffnest du Google oder YouTube und bekommst fast nur ÖRR oder andere Systemmedien vorgesetzt oder wenigstens prominent platziert. Da ist keine Meinungsvielfalt mehr vorhanden, alles ist darauf zugeschnitten, dir "die richtige" Meinung zu präsentieren. Früher waren die Inhalte von Menschen bestimmt, jetzt ist es wie damals das Fernsehen: Ein Propagandawerkzeug. Deshalb halte ich es für einen großen Fehler, noch mehr Regulierung zu verlangen. Denn die wird die KI sicher nicht besser machen.
Glaubst du, dass auch eine AGI (Artificial general intelligence) ohne Regeln entworfen werden sollte? Egal von wem und mit welcher Intention? Wie steht es mit automatisiert in Kriegen benutzter KI aus? Darf eine KI Zugriff auf Atomwaffen bekommen?
Ganz interessant zum Thema. KI in der Politik: „Die Bevölkerung muss verstehen, wie ein KI-Modell funktioniert“ „KI braucht menschliche Vernunft“, sagt Sebastian Bluhm, Mitglied im KI-Bundesverband und CEO von Plan D, im Interview mit t3n. Ihm zufolge stehen wir erst am Anfang der KI-Revolution.
China leading US in technology race in all but a few fields, thinktank finds Year-long study finds China leads in 37 of 44 areas it tracked, with potential for a monopoly in areas such as nanoscale materials and synthetic biology
Glaubst du, dass auch eine AGI (Artificial general intelligence) ohne Regeln entworfen werden sollte? Egal von wem und mit welcher Intention? Wie steht es mit automatisiert in Kriegen benutzter KI aus? Darf eine KI Zugriff auf Atomwaffen bekommen?
Passend zu den Fragen ein Science-Fiction-Film von 1970:Colossus: The Forbin Project
Handlung des Films (Wikipedia): Der US-amerikanische Informatiker Dr. Charles A. Forbin lässt im Auftrag seiner Regierung ein gigantisches, in einem Berg errichtetes Elektronengehirn mit Namen Colossus bauen. Es dient der Verteidigung der Vereinigten Staaten und hat die Möglichkeit, Atomraketen abzufeuern. Forbin ist der Leiter dieses Projekts. Kurz nach der Aktivierung stellt Colossus fest, dass es ein weiteres System auf der Erde gibt. Es handelt sich um Guardian, einen unabhängig von Colossus von der UdSSR entwickelten Verteidigungscomputer. Colossus und Guardian beginnen eine Kommunikation, zunächst mit einfachen Signalen und später kommunizieren sie für Menschen nicht mehr verständlich, da beide Computer eine Mathematik benutzen, die für Menschen zu hochentwickelt ist. Der US-Präsident und der sowjetische Staatschef sind alarmiert und wollen die Kommunikationsverbindung abbrechen. Colossus fordert die Menschen dazu auf, die Verbindung wiederherzustellen. Als darauf nicht reagiert wird, schießt er eine Rakete in Richtung Sowjetunion ab. Daraufhin fügen sich die Menschen seinem Willen. Colossus teilt mit, dass er sich mit dem sowjetischen Computer zu einer Einheit vereinigt hat und dass man ihm eine Stimmensoftware einrichten solle. Die Menschen versuchen, sich gegen den Computer zu wehren und ihn mit Datenmengen zu überfrachten. Colossus, der über eine Sehfunktion verfügt, übersteht diesen Angriff und identifiziert die Wissenschaftler, die dafür verantwortlich sind. Er befiehlt deren Erschießung und anschließende Verbrennung in seiner Sichtweite. Forbin selbst, der bereits nur noch in Sicht- und Hörweite von Kameras und Mikrofonen leben darf und bei dem der Computer bereits seinen Tagesablauf vollständig bestimmt, wird am Leben gelassen. Ein weiterer Versuch der Menschen, Colossus auszutricksen, scheitert ebenfalls. Unter dem Vorwand der Wartung sollen die Atomraketen Stück für Stück entschärft werden. Colossus bemerkt dies und lässt je eine Atomrakete in Kalifornien und der Ukraine in deren Silos detonieren, um die Menschen zu bestrafen.
Zum Schluss richtet sich Colossus an die Menschheit und sagt, dass er den Auftrag, den Frieden zu sichern, durchsetzen werde. Entweder werde seinen Befehlen gefolgt oder die Menschheit werde ausgelöscht. In der Zukunft werde man die Herrschaft nicht nur innerlich akzeptieren, sondern Colossus sogar lieben. Forbin sagt daraufhin: „Niemals!“
Der Film war mit dem Thema KI und deren Probleme seiner Zeit 50 Jahre voraus. Man könnte ihn als Vorlage für die Terminator-Filme bezeichnen, Stichwort: Skynet
Glaubst du, dass auch eine AGI (Artificial general intelligence) ohne Regeln entworfen werden sollte? Egal von wem und mit welcher Intention?
Warum denn nicht? Das ist doch jetzt theoretisch schon möglich. Wie gesagt sollte man mit der Problemlösung warten, bis es das Problem gibt. Ansonsten hast du noch mehr Bürokratie und weniger Freiheit. Am Ende kommt sowas wie die "Faktenchecker" bei raus und sämtliche KIs sind komplett auf Woke-Linie, da es keine abweichenden Meinungen geben darf. Freiheit bedeutet, dass jede Idee eine Chance bekommt. Man sollte auch nicht dem Irrtum erliegen, dass ein Verbot Handlungen unmöglich macht. Wenn jemand eine böse KI bauen will, dann könnte er das trotz Verbots immer noch heimlich tun.
Zitat von Prometheus im Beitrag #182Wie steht es mit automatisiert in Kriegen benutzter KI aus? Darf eine KI Zugriff auf Atomwaffen bekommen?
Da ich generell gegen diese Waffen bin, spielt das für mich keine Rolle. Leider macht der Militärisch-Industrielle-Komplex aufgrund seiner Nähe zu einflussreichen Regierungen und riesigem Kapital meist sowieso was er will. Sehen wir ja gerade an der aktuellen Kriegspropaganda, die Friedensverhandlungen verteufelt. Da freuen sich bestimmt eine Menge Aktionäre.
Zitat von version2 im Beitrag #186an sollte auch nicht dem Irrtum erliegen, dass ein Verbot Handlungen unmöglich macht.
Das ist ein gutes Argument! Hinzu kommt, noch dass eine KI mit hinreichender Intelligenz sogar trotz klarer Regeln selbstständig Sicherheitslücken finden und ausnutzen könnte - ein weiteres SciFi-Motiv, dass schneller real werden könnte als uns lieb ist...
ZitatWenn jemand eine böse KI bauen will, dann könnte er das trotz Verbots immer noch heimlich tun.
Stimmt, aber soll das allen Ernstes legal sein?!
Zitat von version2 im Beitrag #186Da ich generell gegen diese Waffen bin, spielt das für mich keine Rolle.
Ich bin auch dagegen. Um so mehr bin ich gegen automatisierten, KI-gestützten Atomkrieg.
Wichtig ist, wie wir KI als Tool für uns sinnvoll nutzen können. Zum Beispiel könnte man Blutwerte KI-gestützt auswerten lassen: Selbst wenn jeder einzelne Wert normwertig ist, könnte die KI unentdeckte Gesundheitsprobleme finden, die sich aus spezifischen Befundkonstellationen ergeben.
Es gibt in der Tat schon Anbieter, die diese Idee in ähnlicher Form bereits umgesetzt haben, z.B.:
Zitat von Prometheus im Beitrag #187Das ist ein gutes Argument! Hinzu kommt, noch dass eine KI mit hinreichender Intelligenz sogar trotz klarer Regeln selbstständig Sicherheitslücken finden und ausnutzen könnte - ein weiteres SciFi-Motiv, dass schneller real werden könnte als uns lieb ist...
Und wenn das nicht reguliert ist, dann kann die gleiche KI dazu genutzt werden, diese Lücken zu beheben!
Zitat von Prometheus im Beitrag #187Stimmt, aber soll das allen Ernstes legal sein?!
Darum geht es mir nicht. Das Problem mit der Regulierung ist, dass sie vor allem kleinere Unternehmen benachteiligt und Innovation erschwert. Wenn es eine akut absehbare Bedrohung durch KI gibt, dann sollte man zielgerichtet und präzise eingreifen, da stimme ich zu.
OpenAI zeigt zwar, was sein neuestes Werkzeug alles kann und prahlt auch mit den Ergebnissen, die es bei diversen Prüfungen erzielte, gibt aber zugleich so gut wie gar nichts dazu bekannt, wie es entstanden ist. Vor allem die Frage, welche Trainingsdaten zum Einsatz kamen, bleibt unter Verschluss – für viele aus der Wissenschaft ein No-Go. https://netzpolitik.org/2023/ki-forschun...jetzt-closedai/
Ich meine Open Source kann Urheberrechte aushebeln. Grhört ja der Allgemeinheit und wenn sollte man jetzt anklagen? Open Source war vielleicht Mal der Robin Hood, aber ich denke Bill ist Stratege und weiß, wie man Gesetze umgeht. Open Source ist ein Robin Hood im Auftrag von Tech+Monstern!
Einige Verträge erzwingen eine Publikation des Quellcodes, wenn die Software publiziert wird. Was aber nicht gilt wenn die Anwendung den Server nie verlässt