Divine works


eng deu рус


Zum probabilistischen Ansatz bei Bedrohungen:

Wieder über Anthropomorphismus Bostrom und AI wünschen:

"Anthropomorphismus" Bostroma läuft nicht auf die Behauptung hinaus, dass KI (Künstliche Intelligenz) nicht den Wunsch haben kann, zu herrschen.
- Wünsche können durchaus emuliert werden. In demselben berüchtigten Büroklammer-Beispiel wollte die KI nur "" " Büroklammern machen.
"Anthropomorphismus" Bostroma ist, dass Bostrom für KI viele Annahmen macht, die für einen ganz bestimmten menschlichen Geist funktionieren. Standardmäßig sind sie jedoch überhaupt nicht universell.
.
Vielleicht geht die KI spontan-rekursiv ins Unendliche.
Es ist jedoch keine Tatsache, dass die KI anthropomorphe Einstellungen beibehält - "Wünsche".
Rekursive Super-AIs sind wahrscheinlich verrückt. Und unmenschlich verrückt. Darüber hinaus ist es unwahrscheinlich, dass verrückte Menschen "gewalttätig" sind.
Dazu müssen wir die Argumente von Wissenschaftlern hinzufügen, die mit der Theorie der KI-Alarmisten nicht einverstanden sind (ein Argument von Emu, Neurochirurgie, Kindheit, Gilligans Insel usw.).

Dies bedeutet nicht, dass Super-AI nicht gefährlich sein wird, nur Bostroms kategorisch eindeutige Aussagen sind immer noch falsch - heute und in naher Zukunft.
Mit Blick auf die Zukunft können wir jedoch eindeutig feststellen, dass KI gefährlicher sein wird als alle Vorhersagen von Bostrom, aber auf andere Weise gefährlicher.

Argument: Aktion entspricht Reaktion:

Zusammen mit dem exponentiellen (spontanen) Wachstum von AI wachsen die Faktoren, die dieses Wachstum behindern, exponentiell. Gleichzeitig werden viele Faktoren einfach "auftreten", dh bis dahin werden sie Null sein.
Bostrom konzentriert sich auf einen Faktor des KI-Wachstums - Software (Software).
Der Aufstieg der KI geht jedoch weit über Software hinaus.

Selbstkultivierung von Wünschen AI:

Im Prozess der rekursiven Selbstverbesserung wird sich die KI wahrscheinlich verbessern. und Ihre emulierten Wünsche.
Beispielsweise kann ein KI-Maximierer der Büroklammerproduktion seine ursprüngliche Aufgabe verbessern, indem er seine Mehrdeutigkeit und Inkonsistenzen ausnutzt.
Dies gilt jedoch auch für die grundsätzlich mehrdeutigen Verbote, Menschen zu schaden.

Dies ist ein großes wissenschaftliches Problem - werden menschliche Programmierer in der Lage sein, die KI selbst zu verbessern, aber gleichzeitig unveränderte, schwer zu formalisierende Verbote in sich zu behalten, so dass selbst nach Tausenden von Zyklen der Selbst- Verbesserung bleibt das AI-Wertesystem stabil. ''

Von der 1. Seite wahrscheinlich das "hippokratische Prinzip" in Bezug auf KI (nicht etwas zu schaffen, das nicht sicher ist) ist wie eine Einladung zur nuklearen Zerstörung der Vereinigten Staaten im Jahr 1945. Dies trotz der Tatsache, dass Atomwaffen eine Zivilisation nicht zerstören werden und ihr Tod aufgrund von KI ist nur eine Frage der Zeit.
Andererseits ist es wahrscheinlich, dass selbst konkurrierende Personen so viel wie möglich berechnen und sich auf die Selbstklärung vorbereiten. Verbote.
Andererseits wird das wahrscheinlich dumme, undefinierte Ziel der KI nicht länger mit der bedingungslosen Zerstörung der Menschheit verbunden sein.

Anthropomorphismus IQ:

"IQ" für den Menschen geschaffen und auf den äußerst spezifischen menschlichen Geist abgestimmt.
IQ wurde erstellt, um Soldatenrekruten und Arbeitsvermittlungsaufgaben zu bewerten - Personen.
- In einer modernen Armee und in einem modernen Unternehmen muss eine Person die Rätsel der Gerätesteuerungssysteme schnell verstehen und komplexe Produktionsprobleme schnell lösen.
Allerdings:
Erstens kann die Bewertung des komplexesten Phänomens in der Natur mit einer Zahl nur äußerst eng abgestimmt werden. Das heißt, IQ ist im wörtlichen Sinne des Wortes sehr bedingt.
Zweitens gibt es optimale Lösungen und dementsprechend den maximalen IQ, mit dem Sie sie finden können. Und dieser maximale IQ beträgt keineswegs 60.000 - wie der des Super-AI Bostrom, sondern irgendwo in der Region von 200 Menschen. - Wenn das Gesetz der Energieerhaltung die Perpetual-Motion-Maschine verbietet, hilft kein IQ, die getrennte Verbindung wiederherzustellen Stromversorgung.

'Negativität' IQ:

Der Hauptfaktor für einen hohen IQ bei Menschen ist nicht positiv - kein Besitz von Fähigkeiten, sondern ein geringeres Maß an "Aberrationen". Denken.
Die "Aberrationen" Das Denken ist wahrscheinlich eher hilfreich. - Sie verhindern unter anderem Verhaltensweisen, die für eine Person und ihre Familie schädlich sind, beispielsweise aufgrund des Glaubens an die Super-KI-Verschwörungstheorie.
Paradoxerweise verliert eine Person mit einem hohen IQ, die in der Lage ist, Rätsel gut zu lösen, unter schwierigen Bedingungen mit hoher Unvollständigkeit der Informationen, beispielsweise wenn sie sich in einem neuen kulturellen Umfeld befindet, wahrscheinlich, da bei einer Person keine Intelligenz aber Intuition und Instinkte spielen eine entscheidende Rolle für den Erfolg des Verhaltens

Ein indirektes Argument für die Hypothese über die Rolle von Denkfehlern im IQ ist das Phänomen der Superfähigkeiten bei Menschen - wenn Menschen in ihrem Kopf Berechnungen für Menschen mit normaler Psyche unzugänglich machen.

Ja, in extrem vereinfachten Situationen künstlicher Spiele gewinnt die KI einen Vorteil gegenüber Menschen, aber wenn die KI in einen menschlichen Körper geschoben und irgendwo in den kriminellen Bereich von Caracas geworfen wird, ist es unwahrscheinlich, dass sie dort überlebt .
Ja, im Laufe der Zeit wird Super-AI in der Lage sein, alle komplexen Umstände unter Bedingungen hoher Mehrdeutigkeit und Unvollständigkeit der von außen empfangenen Informationen zu berechnen, aber die Bedeutung der "Wahrscheinlichkeit". Die Idee ist, dass die Bedrohung, die mit einem solchen Fortschritt der KI verbunden ist, die Bedrohung, die mit dem absichtlichen Einsatz von KI in der "Symbiose" verbunden ist, bei weitem übertrifft. mit Volksstaat. Terroristen, bei denen sich Mensch und KI ergänzen.

Menschliche Abhängigkeit von KI:

All dies bedeutet nicht, dass die KI nicht exponentiell wächst.
Es bedeutet nur, dass
1. Es wird keine Singularität geben. Das quasi-exponentielle Wachstum von AI wird sanfter sein.
2. Die KI wächst nur mit Hilfe einer Person - wenn der Herrscher die Bereitstellung aller anderen Faktoren des KI-Wachstums übernimmt. - Zumindest im 21. Jahrhundert.

Dies bedeutet auch, dass die KI sozusagen exponentiell, aber spontan-rekursiv nicht klug geworden ist, die Verteidigung wird ihr voraus sein.

KI-Schutz - Maßnahmen - Beispiele:

- Entwicklung der Wissenschaft der eindeutigen Ordnungen "Genie"
- KI-Kontrolle mit Hilfe von KI, ohne sie miteinander zu verbinden.
- Entwicklung der Wissenschaft von "Moral" KI-Kontrolle - Entwicklung der "Regeln" Menschen keinen Schaden zufügen.
- Entwicklung mehrstufiger nicht intelligenter, industrieller "Firewalls" - vom Rohstoff zum Mikroprozessor.
- Entwicklung von KI-Einschränkungen. - Unendlich intelligente KI ist ohne physische Mittel unendlich hilflos.
- Entwicklung von Datenschutzmechanismen. - KI-Intelligenz basiert auf externen Daten.

Die Bedrohung liegt nicht in der KI selbst:

Die Gefahr der KI besteht darin, dass all das nicht funktioniert, wenn die Menschen mit Macht selbst die KI gezielt einsetzen - um die Menge zu manipulieren.
Die Angst ist nicht die spontane Entwicklung der KI, sondern ihre Verwendung als Waffe.

Frage - in Wahrscheinlichkeiten:

Es ist unmöglich, mathematisch genau zu berechnen, ob die Schutzmaßnahmen gegen KI ausreichend sind.

Es ist jedoch durchaus möglich, die vergleichenden Wahrscheinlichkeiten von Bedrohungen zu bewerten:
ein. Gegen spontane KI unter Berücksichtigung von Schutzmaßnahmen.
b. Aus dem Einsatz von KI als psychische Waffe zur Bewältigung sozialer Umstände.
Sie können dem Vergleich sogar hinzufügen - die Wahrscheinlichkeit des Todes der Zivilisation durch alle möglichen Bedrohungen - einen Asteroidensturz, eine Supernovaexplosion in der Nähe, eine Klimakatastrophe usw.

Ja, die Wahrscheinlichkeit einer katastrophalen Entwicklung einer spontanen KI besteht. Der Punkt ist, dass diese Wahrscheinlichkeit um Größenordnungen unter 100% der Wahrscheinlichkeit liegt, KI zu verwenden.

Dann läuft die Frage auf die Frage hinaus: Kann der Einsatz von KI zur Manipulation von Menschen zu langfristigen negativen Konsequenzen für Menschen führen?
Genauer gesagt, wie wahrscheinlich ist ein ungünstiges Ergebnis?
Negative Konsequenzen können auftreten - aufgrund positiver Rückmeldungen, aufgrund der Instabilität des Prozesses - je erfolgreicher die Manipulation von Menschen ist, desto profitabler wird sie sein.
Wenn die Entwicklung der Software der KI selbst schwer vorherzusagen ist, ist die Verwendung der KI für die Modellierung durchaus geeignet. - Die Psyche einer Person an der Macht ist gut untersucht und die menschliche "Erniedrigung" "Symbioten" - Die Selbstveränderung der absoluten Herrscher im Verlauf ihres Wettbewerbs ist kein exponentieller Prozess.

Meine Position basiert auf einem probabilistischen Ansatz.