die Entdeckung von verschränkten Protonen im menschlichen Gehirn wurde hier im Forum schon einmal gemeldet (Suchfunktion). Von einer "spukhaften Fernwirkung" kann keine Rede sein, denn die Protonen verlassen das Gehirn nach meiner Kenntnis nicht verschränkt. Die Verschränkung ist evtl. mit dem Wellenmodell besser verständlich (Welle-Teilchen-Dualismus).
Die Beta von OpenAI ist inzwischen richtig gut, habe mir schon Ideen für Supplements geben lassen und Fragen zu genetischen Zusammenhängen und Anti Aging Themen gestellt. Wer Englisch kann sollte es unbedingt mal ausprobieren:
Würde ich extrem aufpassen. Die KI ist darauf trainiert, einen glaubwürdig aussehenden Text zu erzeugen. Aber z. B. der Unterschied zwischen Wahr und Falsch ist ihr völlig fremd. Diese Maschine hat kein Konzept von Realität oder "Wirklichkeit".
Das hat eigentlich einige interessante philosophische Implikationen, aber das mal beiseite: Ich würde mich nicht darauf verlassen, egal was Openai sagt.
Berechtigter Einwand. Ich poste hier einen Auszug aus der Konversation mit der AI, wobei ich zum etwas besseren Datenschutz die Fragen nachträglich und nicht exakt von Englisch auf Deutsch übersetzt habe. Vielleicht kann ja @Prometheus oder ein anderer Experte hier etwas dazu sagen? Nur falls Zeit und Lust vorhanden sind.
Zitat(etwa): Liste mir die Gene auf, welche den größten Einfluss auf Langlebigkeit haben.
The following genes have been identified as having the highest influence on longevity:
These genes are involved in various cellular processes, such as metabolism, stress resistance, and cell cycle control, and they can help regulate the production of ROS and telomere maintenance, both of which are associated with aging. Additionally, variations in these genes have been linked to changes in lifespan, with certain variants associated with increased longevity.
Auf welche Weise sind die ersten beiden mit Langlebigkeit assoziiert?
The first two genes on the list, SIRT1 and SIRT6, are both members of the sirtuin family of proteins, which are known to play a role in the regulation of metabolism, stress resistance, and cell cycle control. These proteins have been linked to increased longevity, as they can help to regulate the production of ROS and improve telomere maintenance. Additionally, SIRT1 and SIRT6 have been shown to activate several longevity-promoting pathways, such as the FOXO pathway, which is involved in the regulation of metabolism and stress resistance.
Gibt es natürliche Substanzen welche diese Gene auf einem positiven Weg verstärken könnten?
Yes, there are several natural substances that have been shown to have a positive effect on the expression of genes involved in longevity. For example, resveratrol, which is found in red wine and certain fruits and vegetables, has been found to activate the SIRT1 gene, which is associated with increased longevity. Additionally, omega-3 fatty acids, which are found in fish oil, have been shown to activate the FOXO3a gene, which is also linked to increased longevity. Finally, curcumin, which is a compound found in turmeric, has been found to activate the SIRT6 gene, which is associated with increased lifespan.
Speziell betreffend SIRT1 und SIRT6, liste sowohl natürliche Supplements als auch medizinische Stoffe auf, die einen positiven Effekt auf diese beiden haben, sortiert nach Effektivität.
1. Resveratrol (most effective): Found in red wine and certain fruits and vegetables, resveratrol has been found to activate the SIRT1 gene.
2. Omega-3 fatty acids: Found in fish oil, omega-3 fatty acids have been shown to activate the FOXO3a gene, which is also linked to increased longevity.
3. Curcumin: Found in turmeric, curcumin has been found to activate the SIRT6 gene.
4. Metformin: A drug used to treat diabetes, metformin has been found to activate both SIRT1 and SIRT6.
5. Quercetin: A flavonoid found in fruits and vegetables, quercetin has been found to activate both SIRT1 and SIRT6.
6. EGCG: Found in green tea, EGCG has been found to activate both SIRT1 and SIRT6.
7. Genistein: Found in soybeans, genistein has been found to activate both SIRT1 and SIRT6.
8. Nicotinamide riboside (least effective): A form of vitamin B3,
Quercetin sieht interessant aus. Sollte man es in höherer Dosierung nehmen oder wäre es effektiver es mit einer anderen Substanz zu kombinieren?
Quercetin has been found to be effective at activating both SIRT1 and SIRT6 when taken in dosages of up to 500mg per day. However, it may be more effective to combine quercetin with other substances such as resveratrol or omega-3 fatty acids, as these have also been found to activate the same genes. In addition, combining quercetin with other substances may help to increase its bioavailability and enhance its effectiveness.
Achtung, maschinengeneriert und möglicherweise voller Fehler. Für mich sieht es aber plausibel aus.
GPT ist durchaus beeindruckend, ich habe auch schon ein wenig damit experimentiert. die Vorhersage der wahrscheinlichsten Textfolge sagt nicht viel über den Wahrheitsgehalt aus.
In deinem Beispiel ist das Ranking der Gene oder der Supplemente wahrscheinlich durch die Häufigkeit der Erwähnung in den Texten bestimmt, mit denen das System zuvor trainiert wurde. Warum sonst sollte Resveratrol am effektivsten und NR am wenigsten effektiv sein?
Diese KI ist nicht in der Lage, neues Wissen zu generieren und nicht schlauer als die Texte mit denen sie gefüttert wurde!
Bei Fragestellungen aus dem medizinischen Bereich werden von OpenAI anscheinend zunehmend Filter und Disclaimer im Antworttext eingesetzt, vermutlich um potentiellen Klagen aus dem Weg zu gehen.
Was man sich allerdings überlegen kann, wie dieses Tool sinnvoll Verwendung finden könnte.
In deinem Beispiel wäre die KI zum Beispiel hilfreich gewesen wenn man von der einen oder anderen Substanz noch nie gehört hätte und dann zum Anlass für weitere Recherchen nutzt. Andererseits braucht es bereits fundiertes Kontext-Wissen, um zum Beispiel den Wahrheitsgehalt oder den Nutzen des Output richtig einordnen zu können. Dann aber erzählt einem die KI wahrscheinlich nicht mehr viel Unbekanntes.
Ich hatte vor einiger Zeit eine Unterredung mit einer KI, in der es um Serotonin und kognitive Leistungsfähigkeit und Demenz ging. Ich bat die Maschine um Quellenangaben, welche sie auch Prompt lieferte und Titel angab mit Links. Alle Links führten zu Pubmed. Das Problem: Keine einzige der angeblichen Studien befand sich hinter dem Link. Es gab wirklich alles, HIV, Epigenetik von Übergewicht usw., aber eben nichts über Demenz und Serotonin. Dann habe ich den Titel (das Titelwort) der Studien gesucht und, was soll ich sagen, wie es aussieht existiert keine davon. Die Maschine hat ihre angeblichen Quellen alle vollständig erfunden. Es wäre noch möglich, dass die Studien zwar existieren, ich sie aber nicht finden konnte oder die echten Titel anders lauteten. Es läuft aufs selbe hinaus.
Die KI ähnelt damit einen freundlichen, seriös-eloquent auftretenden Menschen, der aber keine inhaltliche Ahnung hat. Die Fragestellung selbst verleitet die KI zu einer gewissen Antwort und die KI erfindet kann
Es gibt Berichte über psychologische Untersuchungen (und weniger seriöse TV-Shows), in denen eine Person in einen Kittel gesteckt und dann auf Laien losgelassen wurde. Das Ergebnis war ernüchternd. Solange jemand einige schlau klingende Wörter verwendet und dabei selbstsicher auftritt, nehmen ihn viele Leute die Rolle des Experten ab. Selbst wenn die selbe Person de facto keine Ahnung von der behaupteten Materie hat. Wenn jemand z. B. die Frage stellt, "wächst auf den Rücken von Südpol-Elefanten nicht Gras?", dann liegt in der Formulierung dieser Frage schon eine gewisse Vermutung, die ein Mensch aufnehmen und spiegeln kann. "Ja, aber klar. Das Gras auf ihren Rücken wächst ist eine bekannte Tatsache über die Südpol-Elefanten. Sie wurde erstmals 1643 von Gamellan bei seiner Umsegelung der Anden schriftlich festgehalten". Während die Idee, dass am Südpol Elefanten leben auf deren Rücken dann auch noch Gras wachsen soll, von vornherein absurd wirkt (das mit dem falsch geschriebenen Magellan und den Anden könnte den ein oder anderen schon täuschen), ist das bei beispielsweise der Fragestellung, ob Antidepressiva (SSIR) gegen Demenz helfen oder die geistige Leistungsfähigkeit im Alter erhalten, nicht so trivial falsch zu beantworten. Ich habe meine Antwort bekommen. Nur, entspricht sie auch der Wahrheit?
Noch ein kleiner Zusatz. Im realen Leben stellen wir uns nicht unbedingt Fragen wie "Wächst auf den Rücken von Südpol-Elefanten nicht Gras?" ohne Kontext. Jemand würde sowas sagen wie, "ich hab mal gehört", "ich hab mal im Fernsehen gesehen" o.ä. Zudem man mit ein bisschen Menschenlesen schnell rausbekommt, welche Antwort ein Mensch hören will oder von welcher er glaubt, dass sie richtig ist. Außerhalb von Prüfungssituationen halten wir mit unseren vermeintlichen Vorwissen nicht hinterm Berg.
#107 @Prometheus Hier muss ich ein Stück weit widersprechen. Es gibt Beispiele, in denen KI neues Wissen "erzeugt" hat. Beispielsweise hat eine KI sich einen neuen Versuchsaufbau in der Quantenphysik ausgedacht, aber wohl durch Versuch und Irrtum. Eine KI hat Proteine gefaltet, was aber die kollektive Intelligenz des Internetzes auch ganz gut hinbekommt.
Selbst einfachere Programme wie Theorembeweiser erzeugen in dem Sinne neues Wissen, dass sie mathematische Sätze beweisen. Die Verwendung dieses Tools in der Mathematik und angrenzenden Wissenschaften verspricht großartig zu werden.
Einen Ersatz für den Menschen sehe ich da noch nicht.
Und es fehlt eben der Wirklichkeitsbezug. Der ist aber in der Mathematik ohnehin jedenfalls nicht trivial. Mathematik gilt als der Kandidat für eine apriorische Wissenschaft überhaupt. Die sog. "Formalisten" wie D. Hilbert sagen, dass es dabei ohnehin nur um Formalität geht und nichts über reale Dinge ausgedacht werden soll.
GPT ist durchaus beeindruckend, ich habe auch schon ein wenig damit experimentiert. die Vorhersage der wahrscheinlichsten Textfolge sagt nicht viel über den Wahrheitsgehalt aus.
In deinem Beispiel ist das Ranking der Gene oder der Supplemente wahrscheinlich durch die Häufigkeit der Erwähnung in den Texten bestimmt, mit denen das System zuvor trainiert wurde. Warum sonst sollte Resveratrol am effektivsten und NR am wenigsten effektiv sein?
Keine Ahnung. Findest du denn wirklich gravierende Fehler in dem Text? Für mich sieht er größtenteils korrekt aus.
Zitat von Prometheus im Beitrag #107Diese KI ist nicht in der Lage, neues Wissen zu generieren und nicht schlauer als die Texte mit denen sie gefüttert wurde!
Das ist nicht ganz richtig, da AI schon häufiger Muster erkannt hat, die Menschen nicht aus den Daten erkennen konnten.
Zitat von Methusalem im Beitrag #109#106 Die KI ähnelt damit einen freundlichen, seriös-eloquent auftretenden Menschen, der aber keine inhaltliche Ahnung hat. Die Fragestellung selbst verleitet die KI zu einer gewissen Antwort und die KI erfindet kann
Das kann bei schlechteren Modellen durchaus so sein, hier hatte ich nicht so sehr den Eindruck. Es entwickelt sich auch ständig weiter.
Für alle die "Spiegel online +" oder "Audible" Abonnenten sind, ist gestern (9.1.23) im Podcast: "Spiegel daily' eine sehr interessante Zusammenfassung über die KI GPT erschienen: Titel Hype um ChatGPT - Warum wir das Internet bald ganz anders erleben werden
AI-Chatbots sind ein weiteres Instrument der Massenmanipulation und Beherrschung des informationellen Raums durch Machteliten.
Das Internet wird damit geflutet werden. Kommentarspalten von Online-Medien z.B., vor wenigen Jahren noch wichtiges Korrektiv gegen konzertierte Leitmedien-Narrative, werden sich ins Gegenteil verkehren. Dort werden bald Bots lügen und manipulieren wie man es sich nicht vorstellen kann.
„Homo Narrans“ wird in seiner Maße das glauben, was ihm KI auftragsgemäß vorsetzt.
ChatGPT nimmt es vorweg: Er „darf“ zum Beispiel keine Texte erstellen, wo er Argumente für die Benutzung fossiler Brennstoffe aufführt
Im Ray Peat-Forum haben User einige von Peats „Kontroversen“ biologischen und physiologischen Standpunkte am Bot abgefragt.
Detailliert und mit Studien. Der Bot zitiert und argumentiert hingegen immer den quantitativen Mainstream und verweist in Gesundheits- und Wissenschaftsfragen am Ende immer auf „Experten“ oder „Ärzte“.
Während der Twitter-Übernahme war ja zwischen den Zeilen schon zu erfahren, das ein hoher Prozentsatz der Twitter-User bisher schon Bots waren und keiner hat’s geglaubt oder gemerkt.
Oder mal stelle sich die vergangene Corona-Jahre und ihre online-Debatten mit dieser Art Bots vor, alle „auf Linie“.
Diese AI ist nicht intelligent, integer oder unabhängig. Autoritäre Machteliten weltweit werden sie zu ihren Zwecken nutzen.
AI-generierter Stumpfsinn wird bald auch die Popkultur Kapern. Musik aus der Retorte 2.0. Bilder. Computerspiele. Apps. Grafiken. Werbespots und Texte. Lehrstoff durch AI. Online-Nachrichten vom Bot.
Geistiges Junkfood bestenfalls, wahrscheinlich eher Gift.
Zitat von Illuminatus im Beitrag #112Also die Realität, erkenne ich auch nicht ganz. Die optimalen AA Maßnahmen sind eher glauben.
Hallo,
Dazu werde ich nach meinem Update Stellung nehmen. Vorab soviel: KI-Agitprop-Bots werden selbstverständlich in Zukunft massiv eingesetzt um Skepsis gegenüber und Kritik an Agitprop-Bots im Keim zu ersticken. Viele biologische Intelligenzen werden das überhaupt nicht bemerken oder bald vergessen haben oder gar nicht erst lernen was daran besorgniserregend ist.
Das mit den Quellenangaben ist ein perfektes Beispiel zur Veranschaulichung, wo die Problematiken im Umgang mit dem GPT3-Model liegen.
Allerdings muss man dazu sagen, das GPT3 ja "nur" ein ziemlich weit fortgeschrittenes Lückentext-Autofill-Programm ist. Es SOLL ja konfabulieren. Prinzipiell ist es gar kein Problem, dass ein KI-Model eine Verlinkung auf real existierende Quellen durchführt, das müsste nur entsprechend programmiert werden. Aber dafür ist GPT3 ja gar nicht konzipiert worden!
GPT3 ist auch nicht dafür gedacht, neue Muster zu finden. Andere KI können das.
@Fichtennadel Ja, einige dieser dystopischen Szenarien werden kommen. Aber auch viele positive Aspekte.
P.S: Es ist überraschend leicht, GPT3 und ähnliche Modelle zu enttarnen. Man muss nur einen Prompt finden, der einen Filter auslöst.
Das ist doch wieder die bekannte Schwarzmalerei. Nutzt die Zeit doch lieber, um mit dem Chat zu spielen und zu schauen, wie er euch/uns mit AA helfen kann. KI ist da, also sollte man das Beste draus machen. Wie sie sich entwickeln wird weiß keiner so genau, nur schlechter wird sie wohl nicht. Postet doch mal eure Fragen und Antworten von der KI.
ZitatPostet doch mal eure Fragen und Antworten von der KI.
Bitte in einem separaten Thread der nur für KI-Inhalte gedacht ist und klar als KI-Text gekennzeichnet ist:
Vorzugsweise in diesem Format
Das Format findet ihr links von der Farbauswahl, als gepunktetes Quadrat oder in dem ihr (pre) Beispieltext (/pre) eintippt, allerdings mit eckigen Klammern.
Wichtig:
-Das Posten von KI-Texten außerhalb des Threads Das Longevity-AI-Orakel in anderen Themen ist NICHT ERWÜNSCHT.
-Die Kunst der Bedienung von KI liegt in der Formulierung der richtigen Prompts (Fragen an die KI), die das gewünschte Resultat ergeben. Das Copyright besitzt derjenige, der den Prompt formuliert hat, also im Idealfall ihr selbst. (Von Anderen formulierte Prompts bitte nicht ohne Zustimmung posten!)
-Bitte postet stets den exakten Prompt ("Frage" an die KI) und die exakte Ausgabe ("Antwort" der KI), also den gesamten Inhalt ("Frage" + "Antwort")
-den Prompt am besten für die bessere Lesbarkeit in Fettschrift markieren
-Optional hilfreich, aber nicht zwingend erforderlich: Zusätzliche Angaben zu den verwendeten Einstellungen (Textlänge, Temperature etc).
Zitat von version2 im Beitrag #110Für mich sieht er größtenteils korrekt aus.
Das war bei mir auch der Fall. Das ist mit den Schauspieler, der in die Rolle des Experten geschickt wird, ebenfalls der Fall.
Zitat von Illuminatus im Beitrag #112Also die Realität, erkenne ich auch nicht ganz. Die optimalen AA Maßnahmen sind eher glauben.
Guter Punkt.
Aber als Mensch haben wir wenigstens ein Konzept der Realität und ein Verständnis von Wahrheit. Diese "Chat-AIs" kümmern sich wirklich nur um die Erzeugung von Texten, ohne wahr und falsch. Wenn ich es mir so überlege, haben diese Dinger einen direkten Einstieg in postmoderne Philosophie.
Zitat von Fichtennadel im Beitrag #113ChatGPT nimmt es vorweg: Er „darf“ zum Beispiel keine Texte erstellen, wo er Argumente für die Benutzung fossiler Brennstoffe aufführt
Das sehe ich als schwerwiegende Einschränkung. Das Gute daran ist lediglich, dass man diese Einschränkungen hier explizit sieht und ergo seine Schlüsse ziehen kann.
Zitat von FichtennadelAI-generierter Stumpfsinn wird bald auch die Popkultur Kapern. Musik aus der Retorte 2.0. Bilder. Computerspiele. Apps. Grafiken. Werbespots und Texte. Lehrstoff durch AI. Online-Nachrichten vom Bot.
Hier bin ich anderer Meinung, gehört aber nicht ins Forum. Falls eine Diskussion gewünscht ist, machen wir das gerne im Off-Topic.
Zitat von Prometheus im Beitrag #115Das mit den Quellenangaben ist ein perfektes Beispiel zur Veranschaulichung, wo die Problematiken im Umgang mit dem GPT3-Model liegen.
Zitat von PrometheusAllerdings muss man dazu sagen, das GPT3 ja "nur" ein ziemlich weit fortgeschrittenes Lückentext-Autofill-Programm ist. Es SOLL ja konfabulieren.
Meiner bescheidenen Meinung nach werde Programme wie GPT allenfalls eine Art GUI sein. Falls KI zur Erstellung und Ordnung von Wissen eingesetzt wird, wird diese anders funktionieren. Du hast es ja selbst erwähnt, dass KI-Systeme, die für mathematische Beweise verwendet werden, anders funktionieren und trainiert werden.
Was mich allerdings ernsthaft besorgt ist, sind zwei Dinge: 1. KI scheint gegenwärtig eher ein Instrument in den Händen der bereits Mächtigen zu sein, gegen die sich der Normalbürger schwer wehren kann. Insbesondere kann ich auf keine Datenbank mit Millionen von Menschen zurückgreifen. Soziale Netzwerke, Suchmaschinen und (wahrscheinlich) gewisse Geheimdienste schon. 2. Die KI scheint von Anfang an ethisch zensiert zu werden. Es besteht die Gefahr, dass die ganzen "amoralischen Wahrheiten" gar nicht mehr zu den Menschen durchdringen. Zum Beispiel keine KI-Essays über die Vorzüge fossiler Energie.
Das sind jetzt natürlich Dinge, die die politische Achse berühren und nicht die rein naturwissenschaftlich-medizinische. Dafür entschuldige ich mich.
Und irgendwie ist man doch auch ein Schöpfer, man gibt zumindest die Promts ein! Aber auch da wird nachgefragt, wie waren deine Promts.
Ja, genau! Resultate bekommt man immer. Aber gute Resultate gibt es nur mit guten Prompts. Du musst dem Programm möglichst präzise mitteilen was es produzieren soll. Im Prinzip musst du dir eine Vorstellung davon formen, wie der Output aussehen soll, wie er strukturiert sein soll, in welchem Schreibstil er verfasst werden soll etc. Ja, das Schöpfen geeigneter Prompts ist eine Kunst für sich!
-Lasse zwei bekannte Anti-Aging Experten ein Streitgespräch führen und gib die Standpunkte vor -Lass dir Nebenwirkungen und Interaktionen von Nahrungsergänzungen im Wikipedia-Stil zusammenfassen -Wie wäre es mit einem kurzen Sachbuch-Kapitel zur Hormonersatztherapie bei Männern und was dabei zu beachten ist?
Wie verfasst man solche Prompts, mit welchen Zusätzen versieht man die Prompts, um beim Ergebnis nachzuschärfen?
Zitat von Illuminatus im Beitrag #119Mit diesen Hilfsmitteln kommt man heute doch easy durch lästige Hausaufgaben oder Facharbeiten, dass ist schon eine schöne Arbeitserleichterung.
Ich will nicht das nächste Fass aufmachen, aber bei manchen Arbeiten glaube ich, man würde der Qualität sogar gut tun.
Zitat von Illuminatus im Beitrag #119Das haben wir in Hobbyforen auch.
@Illuminatus Du meinst jetzt gelegentlich bei mir? Bei den Kommentaren zu den von mir verlinkten Artikeln ist die Qualität eben unterschiedlich. Das gestehe ich gerne zu.
@MethusalemNein Ich bin erst immer gegen Alles was so geschrieben wird...was blöd ist.
Aber wenn ich die Schlagzeile einer Studie als Beweis für irgendwas nehme, aber nie die ganze Sache gesichtet habe und verstanden, kann die Studie halt auch nichts taugen für seine These.
Viele Akademikerinnen und Akademiker unterliegen noch heute dem Irrglauben, dass ihre Jobs mit Blick auf die künftigen Veränderungen der Arbeitswelt relativ sicher sind. Diese Annahme ist aber völlig falsch. https://app.handelsblatt.com/meinung/kom...ml?fr=operanews
Geklaute Kunst, Bücher ist mir bekannt, der Anwalt ist neu. Viele Regeln/Fälle die ein Mensch kaum alle im Kopf haben kann, da ist KI super. Kann gleich den Sachverständigen zum Thema stellen.
Zur Not kann man immer noch Taxifahrer werden, das autonome Level 5 Fahren lässt ja auch schon seit geraumer Zeit auf sich warten. Erst einmal werden KI-Systeme eine hilfreiche Unterstützung, wenn man sie zu nutzen weiß. Bis sämtliche Kinderkrankeiten der KIs beseitigt sind, wird wohl doch noch eine geraume Zeit vergehen.