Ein gestriger Bericht von The Guardian stellte Apple und Siri in den Mittelpunkt der Datenschutzbedenken über sprachaktivierte Assistenten. In dem Bericht wird behauptet, dass Apple-Vertragspartner Siri-Audio hören, um die Leistung zu verbessern, und häufig vertrauliche Gespräche führen.

Apple verteidigte die Bemühungen in einer Erklärung und sagte, dass „weniger als 1% der täglichen Siri-Aktivierungen“ für die Einstufung verwendet werden. Was haltet ihr von dieser Offenbarung?

In dem Bericht wurde ausführlich dargelegt, dass viele der Dinge, die von diesen Gutachtern gehört werden, zufällige Aktivierungen von Siri sind – einschließlich privater medizinischer Gespräche, krimineller Handlungen und mehr. Die Aufzeichnungen sollen auch Standort- und Kontaktdaten sowie App-Daten enthalten:

Es hat unzählige Aufzeichnungen gegeben, die private Gespräche zwischen Ärzten und Patienten, Geschäftsabschlüsse, anscheinend kriminelle Geschäfte, sexuelle Begegnungen usw. beinhalteten. Diese Aufzeichnungen werden von Benutzerdaten begleitet, die Standort-, Kontakt- und App-Daten enthalten.

Darüber hinaus sind die Verantwortlichen für das Abhören und Bewerten von Siri-Antworten Subunternehmer. In dem gestrigen Bericht heißt es, dass dieses Team „einen hohen Umsatz“ verzeichnet.

In seiner Erklärung erklärte Apple, dass Siri-Anforderungen, die für die „Einstufung“ verwendet werden, nicht mit der Apple-ID eines Benutzers verknüpft sind. Es wurde auch darauf hingewiesen, dass die Überprüfer der Audiodaten den strengen Vertraulichkeitsanforderungen von Apple unterliegen:

„Ein kleiner Teil der Siri-Anfragen wird analysiert, um Siri und Diktat zu verbessern. Benutzeranforderungen sind nicht mit der Apple ID des Benutzers verknüpft. Siri-Antworten werden in sicheren Einrichtungen analysiert, und alle Prüfer sind verpflichtet, die strengen Vertraulichkeitsanforderungen von Apple einzuhalten. “Das Unternehmen fügte hinzu, dass eine sehr kleine zufällige Teilmenge, weniger als 1% der täglichen Siri-Aktivierungen, für die Einstufung und die verwendeten Bewertungen verwendet wird sind in der Regel nur wenige Sekunden lang.

Der Bericht von The Guardian greift weitgehend einen Bericht von Bloomberg zu Beginn dieses Jahres auf, in dem das globale Team von Amazon, das für das Anhören von Alexa-Audioclips verantwortlich ist, aufgeführt ist.

  Apple antwortet auf den Guardian-Bericht, wonach Auftragnehmer private Gespräche hören, während sie Siri „benoten“

Auf Sechs Farben, Jason Snell spricht sich nachdrücklich dafür aus, zumindest ein „Opt-out“ -Verfahren durchzuführen – oder diese Art von Siri-Bewertung zu aktivieren:

Ich habe in Bezug auf dieses Problem die gleichen Gefühle wie bei Amazon: Ich bin nicht zufrieden mit der Möglichkeit, dass Aufzeichnungen, die ich bei mir zu Hause gemacht habe oder wenn ich mit meinen Geräten unterwegs bin, von anderen Menschen abgehört werden . Ich bevorzuge automatisierte Systeme, die all diese Arten von „Verbesserungs“ -Aufgaben ausführen. Wenn dies nicht plausibel ist, möchte ich den Prozess deaktivieren (oder noch besser, aktivieren).

Ich stimme dem Argument von Snell in dieser Situation weitgehend zu. Wenn Apple es für erforderlich hält, Siri-Anfragen zuzuhören, um den Service zu verbessern, ist das in Ordnung, aber ich kann mich zumindest abmelden. Apple weist in seiner Siri-Datenschutzrichtlinie darauf hin, dass Benutzer Funktionen wie Ortungsdienste für Siri oder Siri insgesamt deaktivieren können, dies ist jedoch nicht die vollständige Lösung.

Was haltet ihr von dieser Situation? Ist es in Ordnung, wenn Apple Siri-Abfragen hört, um die Leistung des Dienstes zu verbessern? Lass es uns in der Umfrage unten und unten in den Kommentaren wissen.

Nehmen Sie an unserer Umfrage teil