Data yang cacat membahayakan para penyandang disabilitas – TechCrunch

0
21


Data tidak abstrak – data memiliki dampak langsung pada kehidupan masyarakat.

Pada 2019, robot pengiriman bertenaga AI diblokir untuk sementara pengguna kursi roda agar tidak mengakses trotoar dengan aman saat melintasi jalan yang sibuk. Berbicara tentang kejadian tersebut, orang tersebut mencatat, “Ini penting untuk pengembangan teknologi [doesn’t put] orang cacat di telepon sebagai jaminan. “

Bersama kelompok minoritas lainnya, penyandang disabilitas telah lama dirugikan oleh data dan alat data yang cacat. Disabilitas beragam, bernuansa dan dinamis; mereka tidak cocok dengan struktur formula AI, yang diprogram untuk menemukan pola dan membentuk kelompok. Karena AI memperlakukan data outlier sebagai “noise” dan mengabaikannya, seringkali penyandang disabilitas dikecualikan dari kesimpulannya.

Disabilitas beragam, bernuansa dan dinamis; mereka tidak cocok dengan struktur formula AI, yang diprogram untuk menemukan pola dan membentuk kelompok.

Ambil contoh kasus Elaine Herzberg, yang tertabrak dan terbunuh oleh SUV Uber yang dapat mengemudi sendiri pada tahun 2018. Pada saat tabrakan terjadi, Herzberg sedang mendorong sepeda, yang berarti sistem Uber kesulitan untuk mengkategorikannya dan beralih antara menandainya sebagai “kendaraan”, “sepeda” ,” dan lainnya.” Tragedi tersebut menimbulkan banyak pertanyaan bagi para penyandang disabilitas; akankah seseorang dengan kursi roda atau skuter berisiko mengalami kesalahan klasifikasi yang sama fatal?

Kami membutuhkan cara baru untuk mengumpulkan dan memproses data. “Data” berkisar dari informasi pribadi, umpan balik pengguna, resume, multimedia, metrik pengguna, dan banyak lagi, dan terus digunakan untuk mengoptimalkan perangkat lunak kami. Namun, itu tidak dilakukan dengan pemahaman tentang spektrum cara jahat yang dapat dan aku s digunakan di tangan yang salah, atau ketika prinsip tidak diterapkan pada setiap titik kontak bangunan.

Produk kami sudah lama menunggu kerangka kerja data baru yang lebih adil untuk memastikan bahwa data dikelola dengan mempertimbangkan penyandang disabilitas. Jika tidak, penyandang disabilitas akan menghadapi lebih banyak gesekan, dan bahaya, dalam kehidupan sehari-hari yang semakin bergantung pada alat digital.

Data yang salah informasi menghambat pembuatan alat yang baik

Produk yang tidak memiliki aksesibilitas mungkin tidak menghentikan penyandang disabilitas untuk meninggalkan rumah mereka, tetapi mereka dapat menghentikan mereka untuk mengakses titik pivot kehidupan seperti perawatan kesehatan berkualitas, pendidikan, dan pengiriman sesuai permintaan.

Alat kami adalah produk dari lingkungan mereka. Mereka mencerminkan pandangan dunia dan lensa subjektif pencipta mereka. Sudah terlalu lama, sekelompok orang yang sama telah mengawasi sistem data yang salah. Ini adalah lingkaran tertutup, di mana bias yang mendasarinya diabadikan dan kelompok yang sudah tidak terlihat tetap tak terlihat. Tapi seiring kemajuan data, lingkaran itu menjadi bola salju. Kami berurusan dengan mesin-belajar model – jika mereka diajarkan cukup lama bahwa “tidak menjadi X” (baca: berkulit putih, berbadan sehat, cisgender) berarti tidak “normal”, mereka akan berkembang dengan membangun di atas fondasi itu.

Data saling terkait dengan cara yang tidak terlihat oleh kami. Tidaklah cukup untuk mengatakan bahwa algoritme Anda tidak akan mengecualikan orang dengan disabilitas terdaftar. Bias ada di kumpulan data lain. Misalnya, di Amerika Serikat adalah ilegal untuk menolak pinjaman hipotek seseorang karena mereka berkulit hitam. Tetapi dengan mendasarkan prosesnya pada skor kredit – yang memiliki bias yang melekat merugikan orang kulit berwarna – bank secara tidak langsung mengecualikan segmen masyarakat itu.

Bagi penyandang disabilitas, data yang bias secara tidak langsung berpotensi menjadi frekuensi aktivitas fisik atau jumlah jam perjalanan per minggu. Berikut adalah contoh konkret tentang bagaimana bias tidak langsung diterjemahkan ke perangkat lunak: Jika algoritma perekrutan mempelajari gerakan wajah kandidat selama wawancara video, seseorang dengan disabilitas kognitif atau gangguan mobilitas akan mengalaminya hambatan yang berbeda dari pelamar yang berbadan sehat.

Masalahnya juga berasal dari penyandang disabilitas yang tidak dilihat sebagai target pasar bisnis. Ketika perusahaan berada pada tahap awal melakukan brainstorming terhadap pengguna ideal mereka, disabilitas orang sering kali tidak menyadarinya, terutama ketika mereka kurang terlihat – seperti penyakit kesehatan mental. Artinya, data pengguna awal yang digunakan untuk mengulang produk atau layanan tidak berasal dari individu ini. Faktanya, 56% organisasi masih belum secara rutin menguji produk digital mereka di antara penyandang disabilitas.

Jika perusahaan teknologi secara proaktif memasukkan individu penyandang disabilitas ke dalam tim mereka, kemungkinan besar target pasar mereka akan lebih representatif. Selain itu, semua pekerja teknologi perlu menyadari dan memperhitungkan pengecualian yang terlihat dan tidak terlihat dalam data mereka. Ini bukan tugas yang sederhana, dan kami perlu berkolaborasi dalam hal ini. Idealnya, kita akan lebih sering melakukan percakapan, forum, dan berbagi pengetahuan tentang cara menghilangkan bias tidak langsung dari data yang kita gunakan setiap hari.

Kami membutuhkan uji stres etis untuk data

Kami menguji produk kami sepanjang waktu – pada kegunaan, keterlibatan, dan bahkan preferensi logo. Kami tahu warna mana yang berkinerja lebih baik untuk mengonversi pelanggan yang membayar, dan kata-kata yang paling disukai orang, jadi mengapa kami tidak menetapkan standar untuk etika data?

Pada akhirnya, tanggung jawab untuk menciptakan teknologi etis tidak hanya berada di atas. Mereka yang meletakkan batu bata untuk produk hari demi hari juga bertanggung jawab. Itu insinyur Volkswagen (bukan CEO perusahaan) yang dikirim ke penjara untuk mengembangkan perangkat yang memungkinkan mobil menghindari peraturan polusi AS.

Insinyur, desainer, manajer produk; kita semua harus mengakui data di depan kita dan memikirkannya Mengapa kami mengumpulkannya dan bagaimana kami mengumpulkannya. Itu berarti membedah data yang kami minta dan menganalisis apa motivasi kami. Apakah selalu masuk akal untuk menanyakan tentang disabilitas, jenis kelamin, atau ras seseorang? Bagaimana informasi ini bermanfaat bagi pengguna akhir?

Di Stark, kami telah mengembangkan kerangka kerja lima poin untuk dijalankan saat merancang dan membangun segala jenis perangkat lunak, layanan, atau teknologi. Kami harus mengatasi:

  1. Data apa yang kami kumpulkan.
  2. Mengapa kami mengumpulkannya.
  3. Bagaimana itu akan digunakan (dan bagaimana itu dapat disalahgunakan).
  4. Simulasikan IFTTT: “If this, then that”. Jelaskan kemungkinan skenario di mana data dapat digunakan dengan jahat, dan solusi alternatif. Misalnya, bagaimana pengguna dapat terpengaruh oleh pelanggaran data dalam skala besar? Apa yang terjadi jika informasi pribadi ini diketahui oleh keluarga dan teman mereka?
  5. Kirimkan atau buang ide tersebut.

Jika kami hanya dapat menjelaskan data kami menggunakan terminologi yang tidak jelas dan ekspektasi yang tidak jelas, atau dengan memperluas kebenaran, kami tidak boleh memiliki data tersebut. Kerangka kerja memaksa kami untuk memecah data dengan cara yang paling sederhana. Jika kita tidak bisa, itu karena kita belum siap untuk menanganinya secara bertanggung jawab.

Inovasi harus melibatkan penyandang disabilitas

Teknologi data yang kompleks memasuki sektor baru sepanjang waktu, dari pengembangan vaksin hingga robotaxis. Setiap bias terhadap individu penyandang disabilitas di sektor ini menghentikan mereka untuk mengakses produk dan layanan paling mutakhir. Saat kita menjadi lebih bergantung pada teknologi di setiap ceruk kehidupan kita, ada ruang yang lebih besar untuk pengecualian dalam cara kita melakukan aktivitas sehari-hari.

Ini semua tentang pemikiran ke depan dan memasukkan inklusi ke dalam produk Anda di awal. Uang dan / atau pengalaman tidak menjadi faktor pembatas di sini – mengubah proses berpikir dan perjalanan pengembangan Anda gratis; itu hanya poros sadar ke arah yang lebih baik. Meskipun biaya di muka mungkin merupakan peningkatan yang berat, keuntungan yang akan hilang karena tidak memanfaatkan pasar ini, atau karena Anda akhirnya melakukan retrofit pada produk Anda, jauh lebih besar daripada biaya awal tersebut. Hal ini terutama berlaku untuk perusahaan tingkat perusahaan yang tidak dapat mengakses akademisi atau kontrak pemerintah tanpa kepatuhan.

Jadi, perusahaan tahap awal, integrasikan prinsip aksesibilitas ke dalam pengembangan produk Anda dan kumpulkan data pengguna untuk terus memperkuat prinsip tersebut. Berbagi data di seluruh tim orientasi, penjualan, dan desain akan memberi Anda gambaran yang lebih lengkap tentang di mana pengguna Anda mengalami kesulitan. Perusahaan tahap selanjutnya harus melakukan penilaian mandiri untuk menentukan di mana prinsip-prinsip tersebut kurang dalam produk mereka, dan memanfaatkan data historis dan umpan balik pengguna baru untuk menghasilkan perbaikan.

Perombakan AI dan data bukan hanya tentang mengadaptasi kerangka kerja bisnis. Kami masih membutuhkan orang-orang di pucuk pimpinan agar lebih beragam. Ladang tetap ada sangat laki-laki dan berkulit putih, dan di bidang teknologi, ada banyak sekali akun tangan pertama pengecualian dan bias terhadap penyandang disabilitas. Sampai tim yang mengkurasi alat data menjadi lebih beragam, pertumbuhan negara akan terus terhambat, dan penyandang disabilitas akan menjadi korban yang paling terpukul.



Sumber

LEAVE A REPLY

Please enter your comment!
Please enter your name here