Future of Life Institute
Das Future of Life Institute (FLI, Institut für die Zukunft des Lebens) ist eine unabhängige gemeinnützige Organisation mit Büros in Brüssel, Belgien und in Campbell, USA. Die Ziele vom FLI sind die Verringerung von existenziellen Risiken für die Menschheit, insbesondere von Risiken aus künstlicher Intelligenz (KI) sowie die Entwicklung positiver Zukunftsvisionen, welche durch transformative Technologie ermöglicht werden.[1][2]
Future of Life Institute (FLI) | |
---|---|
Rechtsform | Gemeinnützige Organisation (501(c)(3) nonprofit) |
Gründung | März 2014 |
Gründer | Jaan Tallinn, Meia Chita-Tegmark, Max Tegmark, Anthony Aguirre |
Sitz | Campbell, Vereinigte Staaten; Brüssel, Belgien |
Zweck | Verringerung von existenziellen Risiken insbesondere der Risiken, die von fortgeschrittener künstlicher Intelligenz (KI) ausgehen |
Vorsitz | Max Tegmark |
Geschäftsführung | Anthony Aguirre |
Website | Futureoflife.org |
Die Arbeit des Instituts umfasst unter anderem die Vergabe von Fördermitteln, Bildungsarbeit und Interessenvertretung bei den Vereinten Nationen, der Regierung der Vereinigten Staaten und den Institutionen der Europäischen Union.
Gründung
BearbeitenDas Institut wurde im März 2014 von Max Tegmark, Kosmologe am MIT, Jaan Tallinn, Mitbegründer von Skype, Viktoriya Krakovna, Forscherin bei DeepMind, Meia Chita-Tegmark, Postdoctoral Research Fellow an der Tufts University, und Anthony Aguirre, Physiker an der UCSC, gegründet.
Zu den Beratern des Instituts gehören unter anderem der Informatiker Stuart Russell, der Biologe George Church, der Kosmologe Saul Perlmutter, der Physiker Frank Wilczek, der Unternehmer Elon Musk sowie Alan Alda und Morgan Freeman.[3][4][5]
Tätigkeiten
BearbeitenInteressenvertretung
BearbeitenDas Institut trägt aktiv zu globalen und regionalen Debatten über KI Politik bei.
In Europa hat sich das Institut beispielsweise erfolgreich dafür eingesetzt, dass Allzweck KI-Systeme wie GPT-4 in die EU-Verordnung über künstliche Intelligenz aufgenommen werden.[6]
Auch in den USA setzt sich das Institut für Gesetze zur Regulierung von künstlicher Intelligenz ein.[7] Im Oktober 2023 lud der Mehrheitsführer im US-Senat, Chuck Schumer, das FLI dazu ein, seine Ansichten zur KI-Regulierung mit ausgewählten Senatoren zu teilen.[8]
Das Institut setzt sich zusammen mit anderen Organisationen aktiv für die Verbote von nicht einvernehmlich Deepfakes[9][10] und tödlichen autonomen Waffen[11] ein. In 2017 veröffentlichte das FLI zusammen mit Stuart Russell Slaughterbots, ein Video, welches vor den gefahren bewaffneter Drohnenschwärme warnt.[12][13][14][15]
Vergabe von Forschungszuschüssen
Bearbeiten2015 startete das Institut das erste peer-reviewte Zuschussprogramm, das sicherstellen sollte, dass künstliche Intelligenz (KI) sicher, ethisch vertretbar und nutzbringend bleibt. In der ersten Runde vergab FLI 6,5 Millionen US-Dollar an 37 Forscher.[16]
Das zweite Förderprogramm des Instituts zur Sicherheit von KI fand 2018 statt.[17] In den Jahren 2021, 2022 und 2023 richtete das FLI ein neues Stipendienprogramm für Doktoranden[18] und Postdoktoranden[19] ein, das von dem russisch-kanadischen Programmierer Vitalik Buterin[20] finanziert wurde.
Das Förderprogramm von 2022 fokussierte sich auf Forschungsprojekte, welche das wissenschaftliche Verständnis der Folgen eines Atomkriegs zu vertiefen.[21]
Im Jahr 2024 veröffentlichte das Institut einen Aufruf zur Einreichung von Forschungsvorschlägen, welche analysiere, wie sich künstliche Intelligenz in naher Zukunft auf die Ziele für nachhaltige Entwicklung (SDGs) in Bezug auf Armut, Gesundheitsversorgung, Energie und Klimawandel auswirken wird.[22]
Im selben Jahr veröffentlichte das Institut einen weiteren Aufruf zur Einreichung von Forschungsvorschlägen mit dem Ziel, vertrauenswürdige Mechanismen oder Institutionen für eine globale Governance zu entwerfen, die dazu beitragen können, eine Zukunft mit keinem, einem oder mehreren Projekten allgemeiner künstlicher Intelligenz zu stabilisieren.[23]
Weiterhin stellte das Institut 2024 bis zu 4 Mio. USD zur Verfügung, um Projekte zur Verringerung der Gefahren der KI-gesteuerter Machtkonzentration zu unterstützen.[24]
Konferenzen & Events
BearbeitenAm 24. Mai 2014 veranstaltete das Institut am MIT eine Diskussion über die Zukunft der Technologie (The Future of Technology: Benefits and Risks), die von Alan Alda[25][26] moderiert wurde. Die Teilnehmer waren George Church (Biologe), Ting Wu (Genetiker), Andrew McAfee (Wirtschaftswissenschaftler), Frank Wilczek (Physiker) und Jaan Tallinn.[27] Die Diskussion umfasste eine Vielzahl von Themen, von der Zukunft der Biotechnologie bis hin zur Ethik der künstlichen Intelligenz und der Singularität.[28]
Vom 2. bis 5. Januar 2015 organisierte und veranstaltete das Institut die Konferenz „The Future of AI: Opportunities and Challenges“ (Die Zukunft der KI: Chancen und Herausforderungen), deren Ziel es war, die vielversprechendsten Forschungsrichtungen zu identifizieren, um die Vorteile der KI zu nutzen.[29][30] Während der Konferenz ließ das Institut einen offenen Brief über künstliche Intelligenz zirkulieren, der später von Stephen Hawking, Elon Musk und vielen anderen Experten unterzeichnet wurde, darunter 100 führende Persönlichkeiten aus der Welt der KI.[31]
2017 organisierte das Institut die Asilomar Conference on Beneficial AI in Kalifornien,[32] eine private Zusammenkunft, die von der New York Times als „die großen Namen der KI“ bezeichnet wurde (darunter Yann LeCun, Elon Musk und Nick Bostrom). Das Institut veröffentlichte eine Reihe von Grundsätzen für die verantwortungsvolle Entwicklung von KI, die aus den Diskussionen auf der Konferenz hervorgegangen waren und von Yoshua Bengio, Yann LeCun und vielen anderen KI-Forschern unterzeichnet wurden.[33]
2019 hat das Institut die Beneficial AGI Conference in Puerto Rico[34] abgehalten, mit dem Ziel, langfristige Fragen zu beantworten, um sicherzustellen, dass fortgeschrittene künstliche Intelligenz der Menschheit helfen wird.[35]
Auszeichnungen
BearbeitenDer jährliche „Future of Life“-Preis ehrt Menschen, die zum Zeitpunkt ihrer Leistungen keine große Anerkennung genossen haben, aber signifikant dazu beigetragen haben, die Welt zu verbessern.[36]
Preisen wurden verliehen an:
- 2017: Familie des verstorbenen Vasili Arkhipov, weil er 1962 auf dem Höhepunkt der Kuba-Raketenkrise wahrscheinlich im Alleingang die Welt vor einem Atomkrieg bewahrt hat;[37]
- 2018: Familie des verstorbenen Stanislas Petrov, dessen mutiges Urteil am 26. September 1983 wahrscheinlich einen Atomschlag während des Kalten Krieges verhindert hat, der einen offenen Atomkonflikt hätte auslösen können;[38]
- 2019: Matthew Meselson für seine Arbeit zur Biowaffenkonvention von 1972, ein internationales Verbot der Entwicklung, Herstellung und Lagerung bakteriologischer (biologischer) Waffen und Toxinwaffen, sowie zur die Vernichtung solcher Waffen;[39]
- 2020: Familie des verstorbenen Wiktor Schdanow und an William Foege für ihren Beitrag zur Ausrottung des Pockenvirus;[40]
- 2021: Stephen Andersen, Susan Solomon und den inzwischen verstorbenen Joseph Farman für ihre wesentlichen Beiträge zum Montrealer Protokoll von 1987 zum Schutz der Ozonschicht;[41]
- 2022: Jeannie Peterson, Paul Crutzen, John Birks, Richard Turco, Owen Toon, Carl Sagan, Georgiy Stenchikov und Alan Robock für die Verringerung des Risikos eines Atomkriegs durch die Entwicklung und Popularisierung der Wissenschaft des nuklearen Winters;[42]
- 2023: Nicholas Meyer, Edward Hume, Brandon Stoddard, Walter F. Parkes und Lawrence Lasker für die Verringerung des Risikos eines Atomkriegs durch öffentlichkeitswirksame Filme.[43]
Offene Briefe
BearbeitenOffener Brief zu tödlichen autonomen Waffen
Bearbeiten2018 veröffentlichte das Institut einen Brief, in dem die Verabschiedung von „Gesetzen gegen tödliche autonome Waffen“ gefordert wurde. Zu den Unterzeichnern gehörten Elon Musk, Demis Hassabis, Shane Legg und Mustafa Suleyman.[44]
Offener Brief: Gigantische KI Experimente pausieren
BearbeitenIm März 2023 erschien ein offener Brief, in dem eine Pause bei der Entwicklung von KI-Systemen gefordert wurde, die leistungsfähiger als GPT-4 sind. Der Brief warnt vor ernsthaften Risiken für die Menschheit und wurde von über 33.000 Menschen unterzeichnet. Zu den Unterzeichnern zählen bekannte Namen aus Industrie und Forschung wie Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak und Yuval Noah Harari.[45][46][47]
Offener Brief an die führenden Politiker der Welt
Bearbeiten2024 veröffentlichte Max Tegmark, Präsident des FLI, zusammen mit Mary Robinson, Präsidentin der NGO Global Elders, einen Brief in Le Monde, in dem er die führenden Politiker der Welt dazu aufforderte, angesichts der existenziellen Bedrohungen dringend Maßnahmen zu ergreifen.[48][49][50]
Einzelnachweise
Bearbeiten- ↑ Stephen Hawking, Max Tegmark, Stuart Russell: Transcending Complacency on Superintelligent Machines. Huffington Post, 19. April 2014, abgerufen am 26. Juni 2014 (englisch).
- ↑ A new existential risk reduction organisation has launched in Cambridge, Massachusetts. In: cser.ac.uk. Abgerufen am 26. August 2024 (englisch).
- ↑ But What Would the End of Humanity Mean for Me? The Atlantic, 9. Mai 2014, abgerufen am 11. Juni 2014 (englisch).
- ↑ Who we are. Future of Life Institute, abgerufen am 11. Juni 2014 (englisch).
- ↑ Our science-fiction apocalypse: Meet the scientists trying to predict the end of the world. In: salon.com. Abgerufen am 8. Oktober 2014 (englisch).
- ↑ Tambiama Madiega: General-purpose artificial intelligence - At a Glance. In: europarl.europa.eu. European Parliamentary Research Service, 30. März 2023, abgerufen am 13. September 2024 (englisch).
- ↑ How do you know when AI is powerful enough to be dangerous? Regulators try to do the math. 4. September 2024, abgerufen am 18. September 2024 (englisch).
- ↑ Chuck Schumer, Mike Rounds, Martin Heinrich, Todd Young: Driving U.S. Innovation in Artificial Intelligence - A roadmap for artificial intelligence policy in the United States Senate. (PDF) Senate Majority Leader Chuck Schumer, Mai 2024, abgerufen am 13. September 2024 (englisch).
- ↑ Bans on deepfakes take us only so far—here’s what we really need. In: technologyreview.com. Abgerufen am 13. September 2024 (englisch).
- ↑ More Than 300 International Experts Release Open Letter Demanding Government Leaders Take Immediate Action to Combat Deepfake Threats. In: prnewswire.com. Abgerufen am 13. September 2024 (englisch).
- ↑ David Hambling: ‘If Human, Kill’: Video Warns Of Need For Legal Controls On Killer Robots. In: forbes.com. Abgerufen am 18. September 2024 (englisch).
- ↑ Military robots are getting smaller and more capable. In: The Economist. ISSN 0013-0613 (economist.com [abgerufen am 18. September 2024]).
- ↑ Will Knight: Autonomous Weapons Are Here, but the World Isn’t Ready for Them. In: Wired. ISSN 1059-1028 (wired.com [abgerufen am 18. September 2024]).
- ↑ Ian Sample, Ian Sample Science editor: Ban on killer robots urgently needed, say scientists. In: The Guardian. 13. November 2017, ISSN 0261-3077 (theguardian.com [abgerufen am 18. September 2024]).
- ↑ Watch ‘Slaughterbots,’ A Warning About the Future of Killer Bots. In: vice.com. 13. November 2017, abgerufen am 18. September 2024 (amerikanisches Englisch).
- ↑ 2015 AI Safety Grant Program. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ 2018 AGI Safety Grant Program. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ PhD Fellowships. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Postdoctoral Fellowships. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Brendan Bordelon: The little-known AI group that got $660 million. Politico, 26. März 2024, abgerufen am 13. September 2024 (englisch).
- ↑ Nuclear War Research. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Call for proposals evaluating the impact of AI on Poverty, Health, Energy and Climate SDGs. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Call for proposed designs for global institutions governing AI. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ How to mitigate AI-driven power concentration. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Angela Chen: Is Artificial Intelligence a Threat? The Chronicle of Higher Education, abgerufen am 11. September 2014.
- ↑ Events work. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Future of Humanity Institute. In: fhi.ox.ac.uk. 20. Mai 2014, abgerufen am 26. August 2024 (britisches Englisch).
- ↑ Top 23 One-Liners from a Panel Discussion that Gave Me a Crazy Idea. In: dianacrowscience.com. 29. Mai 2014, abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ AI safety conference in Puerto Rico. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Future of Humanity Institute. In: fhi.ox.ac.uk. 20. Januar 2015, abgerufen am 13. September 2024 (britisches Englisch).
- ↑ Stuart Russell, Tom Dietterich, Eric Horvitz, Bart Selman, Francesca Rossi, Demis Hassabis, Shane Legg, Mustafa Suleyman, Dileep George, Scott Phoenix: Letter to the Editor: Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter. In: AI Magazine. Band 36, Nr. 4, 31. Dezember 2015, ISSN 2371-9621, S. 3–4, doi:10.1609/aimag.v36i4.2621 (aaai.org [abgerufen am 13. September 2024]).
- ↑ Beneficial AI 2017. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Asilomar AI Principles. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Beneficial AGI 2019. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ CSER at the Beneficial AGI 2019 Conference. In: cser.ac.uk. Abgerufen am 26. August 2024 (englisch).
- ↑ Future of Life Award. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Arkhipov Family awarded Future of Life Award. In: cser.ac.uk. Abgerufen am 13. September 2024 (englisch).
- ↑ Future Of Life Award 2018. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Future Of Life Award 2019. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Future Of Life Award 2020. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Future Of Life Award 2021. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Professor Stenchikov honored with 2022 Future of Life Award for pioneering nuclear war research. In: kaust.edu.sa. Abgerufen am 13. September 2024 (englisch).
- ↑ Future Of Life Award 2023. In: Future of Life Institute. Abgerufen am 26. August 2024 (amerikanisches Englisch).
- ↑ Cameron Jenkins: AI Innovators Take Pledge Against Autonomous Killer Weapons. In: npr.org. 18. Juli 2018, abgerufen am 26. August 2024.
- ↑ James Vincent: Elon Musk and top AI researchers call for pause on ‘giant AI experiments’. In: theverge.com. 29. März 2023, abgerufen am 13. September 2024 (englisch).
- ↑ Cade Metz, Gregory Schmidt: Elon Musk and Others Call for Pause on A.I., Citing ‘Profound Risks to Society’. The New York Times, 29. März 2023, abgerufen am 18. September 2024 (englisch).
- ↑ Alex Hern, Alex Hern UK technology editor: Elon Musk joins call for pause in creation of giant AI ‘digital minds’. In: The Guardian. 29. März 2023, ISSN 0261-3077 (theguardian.com [abgerufen am 18. September 2024]).
- ↑ Rebecca Speare-Cole: Former world leaders join call for ‘long-view leadership’ of existential threats. The Independent, 15. Februar 2024, abgerufen am 13. September 2024 (englisch).
- ↑ Beatrice Nolan: Richard Branson and Oppenheimer's grandson among those warning about future AI risks. In: businessinsider.com. Abgerufen am 13. September 2024 (amerikanisches Englisch).
- ↑ 'The climate crisis, pandemics, nuclear weapons and AI-related risks reveal a lack of vision in too many contemporary leaders'. 19. März 2024 (lemonde.fr [abgerufen am 18. September 2024]).