Marktgröße, Anteil, globale Nachfrageanalyse, Branchensegmentierung und Prognosebericht für Lockout-Tagout-Geräte bis 2028: Master Lock, Brady, ABUS
Mar 07, 2023Spy Shot: Ein Nächster
Mar 09, 2023Meinung: Das Urteil des Obersten Gerichtshofs untergräbt das Streikrecht, indem es Arbeitgebern die Befugnis gibt, Gewerkschaften zu verklagen
Mar 11, 2023Valorant 6.11 Patchnotizen: Agenten-Updates, Pearl-Kartenänderungen, Waffen und mehr
Mar 13, 2023Digitaler Ageismus
Mar 15, 2023CEOs von OpenAI und Google DeepMind unterzeichnen Erklärung mit der Warnung, dass KI „vom Aussterben bedroht“ sei
Über 350 Experten der KI-Branche, darunter von OpenAI und Google, warnen davor, dass KI genauso gefährlich ist wie große Pandemien und Atomkriege.
-
Eine Gruppe von Experten für künstliche Intelligenz (KI) hat gewarnt, dass KI eine Bedrohung für die Menschheit darstellen könnte, wenn sie nicht verantwortungsvoll entwickelt und genutzt wird. Die Gruppe, zu der Forscher von Google, Microsoft und OpenAI gehören, veröffentlichte am 30. Mai 2023 einen Artikel in der Zeitschrift Nature, in dem sie ihre Bedenken darlegte.
Sam Altman, CEO von OpenAI, Dario Amodei, CEO von Anthropic, und Demis Hassabis, CEO von Google DeepMind, sind die bemerkenswertesten Unterzeichner.
„Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein“, heißt es in dem offenen Brief. Die New York Times berichtet, dass die Erklärung vom Center for AI Safety, einer neuen gemeinnützigen Organisation, veröffentlicht wird. Über 350 KI-Forscher, Ingenieure und Unternehmensleiter haben den Brief mitunterzeichnet.
Geoffrey Hinton und Yoshua Bengio sind zwei namhafte Forscher, die unterschrieben haben. Dies sind zwei der drei Forscher, die einen Turing Award für die Entwicklung neuronaler Netze gewonnen haben. Hinton und Bengio, beide Innovatoren im Bereich KI, gelten als die „Paten“ der KI-Innovation. Anfang dieses Monats gab Hinton seine Position bei Google auf, nachdem er über Googles mangelnde Vision und Führungsqualitäten in der KI-Entwicklung frustriert war. Er warnte auch vor den potenziellen Gefahren der KI.
Die Experten argumentieren, dass KI zur Herstellung autonomer Waffen eingesetzt werden könnte, die ohne menschliches Eingreifen töten könnten. Sie befürchten auch, dass KI zur Manipulation von Menschen oder zur Verbreitung von Fehlinformationen eingesetzt werden könnte. Die Gruppe fordert globale Anstrengungen, um KI auf sichere und verantwortungsvolle Weise zu entwickeln.
Die Warnung der KI-Experten kommt zu einer Zeit, in der die KI immer leistungsfähiger wird. In den letzten Jahren wurde KI zur Entwicklung selbstfahrender Autos, Gesichtserkennungssoftware und sogar KI-gestützter Chatbots eingesetzt. Da sich die KI weiterentwickelt, ist es wichtig, sowohl die potenziellen Risiken als auch die potenziellen Vorteile zu berücksichtigen.
Die KI-Experten, die das Papier in Nature veröffentlicht haben, sind nicht die ersten, die vor den potenziellen Gefahren der KI warnen. Im Jahr 2015 verfassten Elon Musk und Stephen Hawking gemeinsam einen offenen Brief, in dem sie ein Verbot autonomer Waffen forderten. Und 2017 veröffentlichte das Future of Life Institute, eine gemeinnützige Organisation, die die Erforschung existenzieller Risiken fördert, einen Bericht über die Gefahren von KI.
Die Warnungen der KI-Experten und anderer Experten sind ein Weckruf. Es ist klar, dass KI eine leistungsstarke Technologie ist, die das Potenzial hat, großen Schaden anzurichten. Es ist wichtig, dass wir KI auf verantwortungsvolle Weise entwickeln und Maßnahmen ergreifen, um die Risiken zu mindern.
Es gibt viele Bedenken hinsichtlich der KI und der Gesetzgeber, und sogar diejenigen, die in der KI-Branche tätig sind, äußern sie. Das derzeit vielleicht größte Paradoxon im Technologiebereich besteht darin, dass die Entwicklung fortschrittlicher generativer KI weitergeht, obwohl sich viele wichtige Persönlichkeiten zu den Gefahren geäußert haben. Ich denke, die offensichtliche Frage ist: Wenn Führungskräfte wie Sam Altman besorgt sind, warum entwickeln sie dann immer noch KI-Systeme? Ist es rein gewinnorientiert oder ist es Hybris und der Glaube, dass wir diese Technologie kontrollieren können?
Sam Altman ist Mitbegründer von OpenAI (zusammen mit Elon Musk) und aktueller CEO des KI-Forschungsunternehmens. Er hat sich in den letzten Monaten zu einem der mächtigsten Technologieführer entwickelt, da ChatGPT zum am weitesten verbreiteten KI-Chatbot wurde. Altman hat außerdem eine enge Partnerschaft mit Microsoft aufgebaut, nachdem das Unternehmen aus Redmond Milliarden von Dollar investiert hatte.
Während OpenAI und Microsoft ihre KI-Produkte wie GPT-4, ChatGPT, Bing Chat, Microsoft 365 Copilot und GitHub Copilot erweitert haben. Die Kritiker von Altman behaupten jedoch, dass OpenAI seine generativen KI-Produkte zu schnell entwickelt habe, ohne auf entsprechende Vorschriften zu warten. Elon Musk, Altmans ehemaliger Partner bei OpenAI, ist einer dieser Kritiker und meint, die aktuelle Lage des Unternehmens sei nicht das, was er beabsichtigt habe.
Zusammen mit anderen Technologieführern hat Musk außerdem das Projekt „Initiative for Life“ ins Leben gerufen, das KI-Entwickler dazu aufruft, die Entwicklung von Modellen, die leistungsstärker als GPT-4 sind, für mindestens sechs Monate einzustellen. Es ist erwähnenswert, dass Altman kürzlich behauptet hat, GPT-5 werde nicht von OpenAI entwickelt. Diese Woche sprach Altman bei einer Kongressanhörung in den Vereinigten Staaten und gab zu, dass es klare und strenge Vorschriften für die Entwicklung von KI geben müsse.
KI könnte trotz Bedenken unsere Existenz bedrohen, die KI-Entwicklung läuft mit Volldampf voran