Tech frisst San Francisco

Gesehen an einer Hauswand in San Francisco. Der Mission District ist besonders betroffen von der Gentrifizierung.           Foto: www.brokeassstuart.com
Gesehen an einer Hauswand in San Francisco. Der Mission District ist besonders betroffen von der Gentrifizierung. Foto: www.brokeassstuart.com

Die teuerste Stadt der US-Westküste droht, ihre Seele zu verlieren


Nirgendwo in den USA ist Wohnen so teuer wie in San Francisco. Die monatliche Durchschnittsmiete für das Einraum-Appartement liegt bei 3530 Dollar und ist damit innerhalb eines Jahres um fast 14 Prozent gestiegen. Die Stadt ist praktisch von der Tech-Branche übernommen worden: Mit deren Wachstum kommen immer mehr Angestellte, die irgendwo wohnen müssen. Für die Mittelklasse ist hier kein Platz mehr.


Jake Harris, 37jähriger Grundschullehrer, hat viele Jahre lang im Mission District, nah bei seiner Schule gewohnt. Als sein Vermieter ihm wegen Eigenbedarf kündigte, versuchten Harris und seine Frau, in San Francisco eine neue Bleibe zu finden. Aber es war nicht möglich. Nicht für ein Lehrergehalt. So zogen sie nach Berkeley auf der anderen Seite der Bucht, wo sie für 2300 Dollar ein Einraum-Appartment fanden. Jeden Morgen steht Jake Harris nun um 5:15 Uhr auf, um eine Stunde mit dem Zug nach San Francisco rüber zu fahren. “Eigentlich bin ich in einem Alter, wo man es zu etwas gebracht haben sollte. Du bist zur Schule gegangen, hast Karriere gemacht, aber du hast nichts vorzuweisen.”, stellt Harris fest.

Lita Blanc, die Vorsitzende des Lehrerverbandes “United Educators of San Francisco” bestätigt, dass Jake Harris kein Einzelfall ist: “Ich höre jeden Tag von einem Lehrer, der weggezogen ist. Und der Grund Nummer 1 sind die horrenden Lebenshaltungskosten.”


Künstler werden vertrieben

 

Nicht nur die Lehrer, auch die Künstler ziehen weg. Die, die San Francisco einst zu einem Ort für Gegenkultur gemacht haben. “Wir haben eine Umfrage gemacht”, berichtet Kate Patterson von der städtischen Kunstkommission, “Von den fast 600 lokalen Künstlern, die teilgenommen haben, sind 70 Prozent aus ihrem Studio und/oder ihrer Wohnung vertrieben worden.” Sie gehen in die East Bay, nach Oakland oder gleich nach Los Angeles.


Stattdessen kommen immer mehr Software-Entwickler, Social Media Strategen und Datenanalysten in die Stadt. Dieser Personalwechsel aber verändert die Atmosphäre. Den Tech-Mitarbeitern sagt man nach, dass sie zwar viel verdienen, sich aber selten betrinken, alle das gleiche T-shirt tragen und sogar nachts noch arbeiten.

Kunst und Musik sind tot in dieser Stadt, sagen manche. 


San Francisco, einst die Hauptstadt des „Flower Power“, droht zu einer Schlafstadt zu werden für Leute, die im Silicon Valley arbeiten, aber lieber in der City wohnen. Und die Konzerne tun alles, um ihren Mitarbeitern die Pendelei erträglich zu machen. Facebook, Google, Apple & Co bezahlen die Busse, die mit Wi-Fi an Bord jeden Morgen eine Stunde ins Valley fahren und abends wieder zurück in die Stadt. Man schätzt, dass 35 000 Tech-Angestellte auf diese Weise pendeln.

 

Kein Appartment unter einer Million Dollar

 

Peter Vogt ist einer von ihnen. Er hat für ebay und Visa im Valley gearbeitet und mit seinem Partner in San Francisco gewohnt. 2011 kauften sie ihr Appartment im Stadtteil Soma (South of Market Street). Für 950 000 Dollar. Damals war Soma ein öder Stadtteil voller verlassener Lagerhäuser. Doch dann zogen die Headquarter von Twitter, Pinterest und Uber auf der Market Street ein, seither boomt die Gegend. Peter Vogt, der gerade einen neuen Job in Madrid angenommen hat, will nun nach vier Jahren sein Appartment verkaufen. Für 1,7 Millionen Dollar. “Das ist wirklich unverschämt, ich weiß. Aber das ist der Preis, auf den unsere Wohnung im Moment geschätzt wird.”, so Vogt. "Und ich habe gehört, dass viele Immobilien sogar für 30 Prozent über dem Preis weggehen, oft komplett cash bezahlt."


San Francisco kommt einfach nicht hinterher mit dem Wohnungsbau. Zwar wurden gerade erst 500 Millionen Dollar Fördergeld per Gesetz frei gegeben, um 3300 bezahlbare Wohnungen zu bauen. Doch es ist ein Problem, dass die Stadt auf drei Seiten von Wasser umgeben ist und dass viele Häuser aufgrund der Erdbeben-Sicherheitsbestimmungen nicht über eine bestimmte Höhe hinaus gebaut werden dürfen. Diese Stadt kann nicht einfach weiter wachsen wie New York oder Berlin. San Francisco ist berühmt für seine Größe von 7 mal 7 Meilen, aber auch beschränkt dadurch.

 

Airbnb als Sündenbock


Der Fernsehsender CBS berichtete kürzlich undercover aus einem Hostel, in dem ein Stockbett im Viermann-Zimmer 1800 Dollar pro Monat kostet - vermittelt über Airbnb. Mindestaufenthalt: 30 Nächte. Auf diesem Auge schien die Stadt bisher eigenartig blind.

Doch jetzt hat die Stadtverwaltung vorgerechnet, dass 15 Prozent aller freien Häuser und Wohnungen vom offiziellen Mietmarkt verschwunden sind - man findet sie unter anderem wieder auf dem Portal von Airbnb, dem Marktplatz für Privatunterkünfte, der aktuell auf einen Wert von 25 Milliarden Dollar geschätzt wird.

Die Wut vieler in San Francisco wächst. Deshalb wird bei den Kommunalwahlen im November auch über diesen Vorschlag abgestimmt: Wer seine Wohnung oder sein Haus bei Airbnb vermietet, muss sich bei der Stadt registrieren lassen. Wer es nicht tut, wird bestraft.

Dieser Artikel ist bei dpa erschienen und u.a. von FOCUS ONLINE übernommen worden:

Kommentare: 0 (Diskussion geschlossen)
    Es sind noch keine Einträge vorhanden.

Wenn der Roboter am Steuer sitzt

In 15 Jahren werden selbstfahrende Autos auf den Straßen wohl einfach dazugehören. Doch auch Roboter-Wagen kommen in Situationen, die für Menschen lebensbedrohlich sein können. Forscher sind dabei, den rollenden Maschinen das Entscheiden im Notfall beizubringen. Eine Reportage aus dem Silicon Valley.

Chris Gerdes in der Stanford-Forschungsgarage. Foto: C. Hübscher
Chris Gerdes in der Stanford-Forschungsgarage. Foto: C. Hübscher

 

San Francisco (dpa) - Chris Gerdes denkt viel nach über Computer auf vier Rädern. Also über selbstfahrende Autos. Sogar dann, wenn er mit seinem Rennrad über die Hügel von San Francisco kurvt. Neulich hatte er dabei wieder so einen Geistesblitz: Die Autos, die ihn überholten, wichen großzügig aus, sie überfuhren die doppelt durchgezogene, gelbe Mittellinie. Würde ein selbstfahrendes Auto das auch tun, fragte er sich. Die kalifornische Straßenverkehrsordnung verbietet das Kreuzen der Mittellinie. Das Computer-Hirn im Fahrzeug würde sich wohl an die Regeln halten.

«Wir haben hier also ein gelerntes menschliches Verhalten, das gesellschaftlich sogar erwartet wird: Platz machen für Fahrradfahrer. Das aber eigentlich nicht legal ist», sagt Gerdes, Professor an der Elite-Universität Stanford. «Wie bringen wir einen solchen erwünschten Regelbruch dem autonomen Auto der Zukunft bei? Und macht die Mittellinie für ein Roboter-Fahrzeug überhaupt noch Sinn?»

Gerdes geht davon aus, dass ein autonomes Auto die Situation viel besser einschätzen kann als jeder Mensch. Der Wagen beobachtet die Umwelt mit seinen Sensoren und Kameras. Das Auto wird den Radfahrer also sowieso nur überholen, wenn ihm nichts entgegenkommt. Und es wird dem Radler so viel Raum wie möglich geben. Für Autos, die ohne Fahrer auskommen, werden Fahrbahnmarkierungen in Zukunft also womöglich ihre Bedeutung verlieren. 

 

WENN PLÖTZLICH JEMAND VORS AUTO SPRINGT

Gerdes forscht in der US-Technologie-Hochburg, im Silicon Valley, zu selbstfahrenden Autos. Er berät die kalifornische Straßenbehörde DMV und die Industrie. So hören, wie er erzählt, auch deutsche Autobauer wie Mercedes-Benz und Zulieferer wie Bosch auf seinen Rat.

Mit Doktoranden steht er regelmäßig an einer Teststrecke. Gerade untersuchen sie, wie Shelley, ein umgerüsteter Forschungs-Audi mit unerwarteten Situationen umgeht. Zum Beispiel damit, dass hinter jedem am Straßenrand parkenden Auto plötzlich ein erwachsener Fußgänger oder gar ein Kind hervorlaufen kann.

Wie können die Hersteller selbstfahrende Autos darauf vorbereiten? Wie programmiert man eine solche «Hab-Acht-Stellung» ins Fahrzeug? «Wir werden nie ein perfektes System bauen», räumt Gerdes ein. «Aber wir müssen versuchen, es so sicher wie möglich zu machen.» 

Philosoph Patrick Lin im Forschungsfahrzeug. Foto: C. Hübscher
Philosoph Patrick Lin im Forschungsfahrzeug. Foto: C. Hübscher

 

EINE FRAGE FÜR PHILOSOPHEN

Bei der mühsamen Kleinarbeit an der Schaltzentrale der Zukunftsautos stellen sich die Forscher viele Fragen - manchmal sehr praktische, manchmal exotische. So bekam Gerdes vor einiger Zeit eine E-Mail von Patrick Lin, einem Philosophieprofessor in San Luis Obispo, gelegen auf halber Strecke zwischen San Francisco und Los Angeles. «Denken Sie auch über all die ethischen Fragen nach, die die autonomen Autos uns bringen werden?», wollte Lin von Gerdes wissen.

Seitdem forschen die beiden Wissenschaftler gemeinsam. Der Philosoph entwirft ein Szenario, der Ingenieur sucht nach technischen Antworten. Zum Beispiel: Stellen wir uns vor, unser Auto kommt in eine Gefahrensituation und kann einem Crash nur noch entgehen, indem es nach links ausweicht. Dort würde der Wagen eine achtzigjährige Großmutter töten. Er könnte auch nach rechts umlenken, wo er in ein achtjähriges Mädchen steuern würde. Wie soll das Auto entscheiden?

Der Philosoph Lin sagt: «Es gibt nicht die einzig richtige Antwort hier, das liegt in der Natur des ethischen Dilemmas. Man könnte einerseits argumentieren: Die Großmutter hat schon ein erfülltes Leben hinter sich. Oder aber: Das Mädchen hat die flexibleren Knochen und wird den Zusammenstoß vielleicht eher überleben.» 

Kameraaufnahme aus selbstfahrendem Auto. Quelle: Daimler AG
Kameraaufnahme aus selbstfahrendem Auto. Quelle: Daimler AG

 

Der Autobranche selbst sind solche Fragen spürbar unangenehm. Die Hersteller betonen, Autos würden nicht dahin programmiert, zwischen verschiedenen Opfertypen zu unterscheiden. Vielmehr sollen die Fahrzeuge generell jede Kollision vermeiden. Erst recht, wenn es um ungeschützte Fußgänger und Radfahrer geht.

Ein wichtiges Argument für mehr Sicherheit, wenn der Computer die Kontrolle übernimmt, ist die traurige Realität auf den Straßen: Sowohl in den USA als auch in Deutschland ist der Mensch am Steuer für die Masse der Unfälle verantwortlich: durch Fehler beim Abbiegen und Rückwärtsfahren, zu nahes Auffahren, aggressives Verhalten, Rasen, Alkohol am Steuer. So sind zum Beispiel in Deutschland 2015 rund 35 Prozent aller Verkehrstoten Opfer von Unfällen mit nicht angepasster Geschwindigkeit.

Experten erwarten, dass es durch autonome Fahrzeuge drastisch weniger Unfälle geben wird. Trotzdem fordert Philosophieprofessor Lin eine gesellschaftliche Diskussion über die ethischen Fragen: «Wie kommen die Programmierer zu ihrer Entscheidung? Haben sie die Konsequenzen durchdacht? Wenn nicht, wird jedes Gericht sie im Ernstfall als fahrlässig und moralisch unverantwortlich verurteilen.» Und Lin rät, dass die Autoindustrie über ethische Fragen offen sprechen sollte. «Macht sie das nicht, wird dieses Informationsvakuum von anderen mit Spekulationen und Ängsten gefüllt werden.» 

TESLA UND GOOGLE: DER CRASH MACHT UNSICHER

Für einen Aufschrei sorgte im Mai 2016 der erste tödliche Unfall mit einem gerade vom Computer gesteuerten Tesla im US-Staat Florida. Der Wagen war nicht komplett autonom, er fuhr im sogenannten Autopilot-Modus. Dabei handelt es sich um ein ausgeklügeltes Assistenzsystem, das vom Fahrer bewusst angeschaltet werden muss und dann unter anderem Spur und Abstand halten soll. Und der Elektroautobauer fordert die Menschen auf, die Hände nie vom Steuer zu nehmen und die Verkehrslage im Blick zu behalten.

Der Fahrer des Unfallwagens soll jedoch einen Film geguckt haben, als das Auto in einen Lastwagen krachte, der die Straße querte. Die US-Verkehrsbehörde NHTSA stellte in ihrem Untersuchungsbericht fest, das Assistenzsystem habe wie zugesichert funktioniert, der Fahrer hätte sich aber nicht auf die Technik verlassen dürfen.

Auch Roboterwagen geraten in Unfälle - meistens fahren unachtsame Menschen auf die korrekt fahrenden Testautos auf. Anfang 2016 jedoch provozierte ein Google-Auto selbst einen Blechschaden, als es beim Umfahren eines Hindernisses einem Bus in den Weg steuerte.

 

Aktuell sorgt noch fast jeder Zwischenfall für Schlagzeilen. Experten erwarten, dass diese Phase mit mehr Wagen und immer besserer Technik vergehen wird. 2016 jedoch fürchteten sich drei von vier Amerikanern davor, von einem selbstfahrenden Auto durch die Gegend chauffiert zu werden. Auch bei den Deutschen ist die Skepsis groß. Nach einer Studie der Unternehmensberatung Deloitte haben auch hier 72 Prozent das Gefühl, die Sicherheit im autonomen Modus reiche noch nicht aus. 

 

Dabei war es ausgerechnet ein Deutscher, der die aktuelle Roboter-Wagen-Welle entscheidend anschob: Sebastian Thrun war Professor für Künstliche Intelligenz in Stanford und entwickelte dort den autonomen Wagen Stanley auf Basis eines VW Touareg. Mit ihm gewann Thrun 2005 die DARPA Grand Challenge, einen Wettbewerb des US-Verteidigungsministeriums. Daraufhin engagierte ihn Google, um für den Konzern den ersten Prototypen zu bauen.

Google startete 2009 Tests mit Roboter-Wagen auf der Straße und setzte mit dem Projekt auch etablierte Autokonzerne unter Zugzwang. Seit kurzem stellt die Google-Schwesterfirma Waymo Familien selbstfahrende Minivans für den Alltag zur Verfügung. Zu den ersten 100 gemeinsam mit dem Hersteller Chrysler umgebauten Fahrzeugen sollen 500 weitere hinzukommen.

 

Dirk Wisselmann. Foto: BMW AG
Dirk Wisselmann. Foto: BMW AG

Auch die großen deutschen Autobauer forschen im Silicon Valley und sind mit Testlizenzen unterwegs. So will BMW 2021 gemeinsam mit Intel ein vollautonomes Auto auf die Straße bringen.

Der Mann für ethische Fragen im BMW-Konzern, Dirk Wisselmann, berichtet, dass man viel an Szenarien arbeite, wie sie der Philosoph Lin entwirft. Zugleich versichert er, dass ein Algorithmus - also eine Computerregel - mit Wertungen wie «Kind geht vor Großmutter» niemals in ein deutsches Auto hinein programmiert werden dürfte. «Das verstößt gegen das Grundgesetz. Die Antwort kann immer nur lauten: Sachschaden vor Personenschaden.»

Für Wisselmann ist das Szenario zunächst ein einfacher technischer Algorithmus: «Das Auto erkennt, dass vor ihm ein Objekt ist und wird daraufhin sofort bremsen und dann versuchen, noch nach links oder rechts auszuweichen.»

 

Weil allgemein davon ausgegangen wird, dass die vollautonomen Wagen oft eher langsam unterwegs sein werden, sieht Wisselmann keine große Gefahr für Fußgänger. «Bei 30 Kilometer pro Stunde in der Innenstadt ergibt sich ein Bremsweg von etwa 4 Metern. Bei dieser Geschwindigkeit bleiben etwa 50 Zentimeter, die ein Auto nach links oder rechts ausweichen könnte. Also, wie realistisch ist dann ein solch dramatisches Szenario noch?» 

Mirko Franke. Foto: Bosch
Mirko Franke. Foto: Bosch

 

NICHT ALLES MACHEN, WAS GEHT

Mirko Franke, Entwickler bei Bosch, sieht sich stärker in der Moral-Zwickmühle: «Technisch sind wir längst so weit, dass die Sensoren gut erkennen, was sich um das Auto herum tut. Eine etwa einen Meter große Person ist mit hoher Wahrscheinlichkeit ein Kind, jemand mit einem Stock wahrscheinlich ein älterer Mensch. Wir könnten all das also heute schon berücksichtigen. Aber wir tun es nicht.» Das Auto solle nur einen Fußgänger erkennen, mit dem ein Unfall zu vermeiden ist, und zum Beispiel mit einer Notbremsung auf ihn reagieren, egal ob Oma oder Kind.

«Wir weisen unsere Entwickler nicht an, in einer solchen Dilemma-Situation Schicksal zu spielen und hart rein zu coden, dass das Leben eines Kindes mehr wert sei als das einer älteren Frau», betont Franke. «Was ethisch ist und was nicht, ist eine gesellschaftliche Frage, das können wir nicht als Unternehmen festlegen. Deshalb begrüßen wir auch die Einrichtung einer Ethikkommission in Deutschland und warten hier auf die Empfehlungen.» 

Alison Chaiken. Foto: privat
Alison Chaiken. Foto: privat

 

Die Deutschen sind gewohnt vorsichtig. US-Wettbewerber wie Tesla und Waymo wollen sich zum Thema Ethik erst gar nicht äußern. Und dann sind da noch die vielen Start-ups. So wie Peloton. Die Firma entwickelt führerlose Lastwagen für das sogenannte Platooning. Dabei sollen Fahrzeuge automatisch gesteuert in Kolonne fahren. Ziel: den Treibstoffverbrauch und das Unfallrisiko zu senken.

Software-Entwicklerin Alison Chaiken sagt: «Ingenieure wollen coole Sachen bauen und kümmern sich nicht so sehr um die Konsequenzen.» Die Frage nach dem Unfallszenario des Philosophen Lin erstaunt Chaiken: «Als ich meinen Führerschein gemacht habe, wurde ich niemals gefragt, wie ich mich im Ernstfall zwischen einem achtjährigem Mädchen und der achtzigjährigen Großmutter entscheiden würde. Und jetzt fahre ich schon 35 Jahre Auto und bin noch nie in einer solchen Situation gewesen.» 

Typisch Silicon Valley, sagt dazu Stefano Marzani, italienischstämmiger Programmierer aus einem Auto-Start-up. Er hat jüngst eine Debatterunde mit dem Namen «Tech Ethics» gegründet. Dazu lädt er Experten ein, um vor Gästen über brennende Fragen bei neuer Technik zu diskutieren. «Die Start-ups hier denken alle nur an Lokalisierung, Umgebungserkennung und Kostenfunktionen. Niemand von denen kümmert sich um die Moral. Aber das sollten sie, denn das wird eine Revolution», meint Marzani.

  

 

IST EIN NOTFALLKNOPF DIE LÖSUNG?

Nach den ersten Kollisionen wird über Roboter-Autos zumindest schon diskutiert. Dabei ist immer wieder vom großen roten Not-Knopf die Rede. Damit könnte der Mensch beim hochautomatisierten Fahren im Krisenfall die Kontrolle wieder übernehmen. Aber wie realistisch ist das? BMW hat es getestet: «Wir haben über 400 Fahrsimulationsversuche gemacht, wo wir Realfahrer - natürlich unter Laborbedingungen - mit solchen Situationen konfrontiert haben», sagt Wisselmann.

«Man schickt den Fahrer dabei in die komplette Ablenkung, zum Beispiel liest er ein Buch, wenn plötzlich ein Warnton im Auto ertönt. Der Fahrer muss sich dann in kürzester Zeit orientieren und ein Manöver einleiten, also bremsen oder ausweichen», so der deutsche Experte. «Die Ergebnisse waren erstaunlich, die Schnellsten brauchten in einfachen Situationen nur zwei bis drei Sekunden.»

Stanford-Professor Gerdes hält menschliches Eingreifen dagegen für keine gute Idee. «Die meisten Unfälle werden heute dadurch verursacht, dass wir Menschen falsch auf unvorhergesehene Situationen reagieren.» Mit dem Notfallknopf bekomme man die Kontrolle zum schlechtestmöglichen Zeitpunkt. «Nein, das Auto sollte seine eigenen Entscheidungen treffen können oder zu einem sicheren Stand kommen.»

Sein Philosophen-Freund Lin bleibt skeptisch. Einerseits könne der Computer in Gefahrenlagen Unfälle vermeiden. Andererseits bedrohe das Roboter-Auto die menschliche Würde: «Wenn wir die Entscheidung über Leben oder Tod dem Computer überlassen, schließen wir uns selbst von jeglichem weiteren Nachdenken darüber in Zukunft aus.» 


Hintergrund: Neues Gesetz zum Automatischen Fahren in Deutschland

 

Deutschland gibt Gas bei der Zulassung des automatischen Fahrens. Ende März machte der Bundestag den Weg dafür frei, dass in Autos künftig Computer Fahrfunktionen übernehmen dürfen. Der Mensch am Steuer muss aber immer eingreifen können. Der Entwurf von Verkehrsminister Alexander Dobrindt (CSU) muss noch durch den Bundesrat, der sich am 12. Mai mit dem Thema beschäftigen wollte.

Das neue Gesetz soll die Zulassung von Autos erlauben, bei denen technische Systeme zeitweise die Steuerung kontrollieren. Der Fahrer soll dann die Hände vom Lenkrad nehmen können - etwa um im Internet zu surfen. Dabei muss er jedoch im Notfall jederzeit wieder Steuer und Bremsen in Sekundenschnelle bedienen können. Zum reinen Fahrgast kann der Autofahrer also vorerst bei uns nicht werden. Zudem soll das Computer-Auto eine Art Blackbox wie im Flugzeug bekommen, in der Fahrdaten über drei Jahre gespeichert werden.

Verbraucherschützer warnen vor zu viel Verantwortung des Fahrers. Es dürfe nicht vollmundig mit einem Autopiloten geworben werden, wenn die Systeme ständig überwacht werden müssten. Bei Fragen nach dem Haftungsrisiko stellt Minister Dobrindt klar: «Wenn der Computer fährt, dann haftet am Schluss der Hersteller.» Datenschützer wollen zudem genauer wissen, welche Informationen konkret im elektronischen Fahrtenschreiber gespeichert werden dürfen.

Der Druck von der Industrie, schnell den gesetzlichen Rahmen für das automatische Fahren zu schaffen, ist groß. Fast alle Hersteller haben erste Systeme wie Einparkhilfen, Stau- und Spurhalte-Assistenten und Bremshilfen auf dem Markt.

Im Herbst 2016 hatte Dobrindt eine Ethikkommission einberufen, die bis zum Sommer Regeln für Roboter-Autos aufstellen soll. Daran sollen sich Programmierer orientieren können.

Unter dem Vorsitz des früheren Verfassungsrichters Udo Di Fabio beraten Juristen, Ingenieure und Philosophen, wie die Verantwortung hinterm Steuer künftig organisiert werden soll. Dabei gelten zwei Grundsätze: Sachschaden geht immer vor Personenschaden. Und es darf in Deutschland keine Klassifizierung von Menschen geben, etwa nach Größe oder Alter.

Für Dobrindt ist automatisches Fahren nichts Geringeres als «die größte Mobilitätsrevolution seit der Erfindung des Automobils». Allerdings stehen rund zwei Drittel der Menschen in Deutschland dieser Technik grundsätzlich misstrauisch gegenüber. Nach einer Umfrage der Bertelsmann-Stiftung befürchten sie Unfälle, den Verlust der Kontrolle über das Auto und Hacker-Angriffe auf die Technik. 


Hintergrund: Wie ein intelligentes Auto lernt

 

Um einem selbstfahrenden Auto beizubringen, wie zum Beispiel ein Fußgänger aussieht, liest der Hersteller anfangs Tausende Bilder von Fußgängern in die Datensammlung des Rechners ein. Mit diesen Aufnahmen kann der Computer trainieren. Schon bald ist er in der Lage, auf neuen Bildern Menschen selbstständig zu erkennen - oft verlässlicher als das menschliche Auge.

Zusätzlich füttert man den Rechner mit wichtigen Informationen, zum Beispiel mit der kompletten Straßenverkehrsverordnung und mit Hunderten von Szenarien und Regeln. Ein Beispiel: «Wenn ein Ball auf die Straße rollt, bremse ab: Es könnte ein Kind hinterher laufen.» Dabei gilt: Je mehr Situationen trainiert werden, desto besser wird der Algorithmus - also eine Folge von Handlungsanweisungen.

Das Erkennen der Umgebung entwickelt sich in den letzten Jahren rasant weiter, seit Rechner die Methoden der Künstlichen Intelligenz
- kurz KI - und des Deep Learning nutzen. Das heißt, statt in das Auto hinein zu programmieren, wie es in jeder einzelnen Situation reagieren soll, lässt man es selbst lernen. Künstliche sogenannte neuronale Netzwerke entdecken die Welt wie ein Kind ab der Geburt Stück für Stück. Das Auto lernt durch Beobachtung menschlicher Fahrer und begreift schnell: Ich darf vor allem nirgendwo gegenfahren.