คำแนะนำของผู้ปกครอง: 'ปัญญาประดิษฐ์' ใช้เพื่อจัดอันดับพี่เลี้ยงตามประวัติของสื่อสังคมออนไลน์
เมื่อ Jessie Battaglia เริ่มมองหาคนเลี้ยงใหม่สำหรับลูกชายวัยหนึ่งขวบของเธอเธอต้องการข้อมูลมากกว่าที่เธอจะได้รับจากการตรวจสอบประวัติอาชญากรความคิดเห็นของผู้ปกครองและการสัมภาษณ์แบบตัวต่อตัว
ดังนั้นเธอจึงหันไปหา Predictim บริการออนไลน์ที่ใช้ "ปัญญาประดิษฐ์ขั้นสูง" เพื่อประเมินบุคลิกภาพของผู้เลี้ยงและเล็งเครื่องสแกนไปที่โพสต์ Facebook, Twitter และ Instagram จำนวนหนึ่งของผู้สมัคร
ระบบเสนอ "การจัดอันดับความเสี่ยง" โดยอัตโนมัติของผู้สมัครอายุ 24 ปีโดยบอกว่าเธออยู่ใน "ความเสี่ยงต่ำมาก" ในการเป็นผู้ใช้ยา แต่มันให้การประเมินความเสี่ยงที่สูงขึ้นเล็กน้อย - สองในห้า - สำหรับการกลั่นแกล้งการคุกคามถูก "ไม่สุภาพ" และมี "ทัศนคติที่ไม่ดี"
ระบบไม่ได้อธิบายว่าเหตุใดจึงตัดสินใจทำเช่นนั้น แต่ Battaglia ผู้ซึ่งเชื่อว่าผู้ดูแลรักษานั้นเชื่อถือได้ทันใดนั้นก็รู้สึกสงสัย
"โซเชียลมีเดียแสดงตัวละครของคน ๆ หนึ่ง" นายแบตตาเกลลีวัย 29 ปีผู้อาศัยอยู่ใกล้ลอสแองเจลิสกล่าว "ทำไมเธอถึงมาเป็นคนสองคนไม่ใช่คนเดียว?"
Predictim นำเสนอ playbook แบบเดียวกับที่พ่อแม่ของ บริษัท เทคโนโลยีอื่น ๆ ขายให้กับผู้จ้างงานทั่วโลก: ระบบปัญญาประดิษฐ์ที่วิเคราะห์คำพูดของบุคคลการแสดงออกทางสีหน้าและประวัติศาสตร์ออนไลน์โดยสัญญาว่าจะเปิดเผยแง่มุมที่ซ่อนอยู่ในชีวิตส่วนตัวของพวกเขา
เทคโนโลยีกำลังก่อร่างใหม่ว่าบาง บริษัท มีวิธีการสรรหาการจ้างงานและการตรวจสอบคนงานโดยเสนอนายจ้างที่มองหาผู้สมัครงานที่ไม่มีใครเทียบได้ผ่านคลื่นลูกใหม่ของการประเมินและเฝ้าระวังทางจิตวิทยาที่รุกราน
บริษัท เทคโนโลยี Fama กล่าวว่าใช้ AI กับสื่อสังคมออนไลน์ของคนงานตำรวจสำหรับ "พฤติกรรมที่เป็นพิษ" และแจ้งเตือนหัวหน้าของพวกเขา และ บริษัท จัดหางานเทคโนโลยี HireVue ซึ่งทำงานร่วมกับ บริษัท ต่าง ๆ เช่น Geico, Hilton และ Unilever นำเสนอระบบที่จะวิเคราะห์เสียงของผู้สมัครการเลือกคำและการเคลื่อนไหวทางใบหน้าโดยอัตโนมัติในระหว่างการสัมภาษณ์วิดีโอเพื่อทำนายทักษะและลักษณะการทำงานของพวกเขา (ผู้สมัครได้รับการสนับสนุนให้ยิ้มเพื่อผลลัพธ์ที่ดีที่สุด)
แต่นักวิจารณ์กล่าวว่าระบบ Predictim และระบบที่คล้ายคลึงกันนำเสนออันตรายของตนเองโดยการตัดสินใจโดยอัตโนมัติและอาจเปลี่ยนแปลงชีวิตได้
ระบบขึ้นอยู่กับอัลกอริทึมกล่องดำที่ให้รายละเอียดเล็ก ๆ น้อย ๆ เกี่ยวกับวิธีที่พวกเขาลดความซับซ้อนของชีวิตภายในของบุคคลในการคำนวณคุณธรรมหรืออันตราย และถึงแม้เทคโนโลยีของ Predictim จะมีอิทธิพลต่อความคิดของผู้ปกครอง แต่ก็ยังไม่ได้รับการพิสูจน์โดยสิ้นเชิงซึ่งส่วนใหญ่ไม่สามารถอธิบายได้และมีความเสี่ยงต่ออคติที่เงียบสงบมากกว่าวิธีที่ผู้เลี้ยงที่เหมาะสมควรแบ่งปันมองและพูด
มี "การเร่งรีบอย่างบ้าคลั่งในการยึดอำนาจของ AI ในการตัดสินใจทุกประเภทโดยไม่ทำให้แน่ใจว่ารับผิดชอบต่อมนุษย์" เจฟฟ์เชสเตอร์ผู้อำนวยการบริหารของศูนย์ประชาธิปไตยดิจิทัลซึ่งเป็นกลุ่มผู้สนับสนุนด้านเทคโนโลยีกล่าว "มันเหมือนคนอื่น ๆ เมา Kool-Aid และคิดว่านี่เป็นวิธีที่เหมาะสมในการควบคุมชีวิตของเรา"
การสแกนของ Predictim วิเคราะห์ประวัติศาสตร์ทั้งหมดของโซเชียลมีเดียซึ่งสำหรับผู้ดูแลที่อายุน้อยที่สุดสามารถครอบคลุมชีวิตส่วนใหญ่ของพวกเขาได้ และผู้ช่วยดูแลจะได้รับแจ้งว่าพวกเขาจะเสียเปรียบอย่างมากสำหรับการแข่งขันหากพวกเขาปฏิเสธ
Sal Parsa หัวหน้าและผู้ร่วมก่อตั้งของ Predictim กล่าวว่า บริษัท ดังกล่าวเปิดตัวเมื่อเดือนที่แล้วซึ่งเป็นส่วนหนึ่งของ University of California ที่ศูนย์บ่มเพาะเทคโนโลยี SkyDeck ของ Berkeley ใช้คำถามเชิงจริยธรรมเกี่ยวกับการใช้เทคโนโลยีอย่างจริงจัง เขากล่าวว่าผู้ปกครองควรเห็นการให้คะแนนในฐานะเพื่อนที่ "อาจหรือไม่อาจสะท้อนถึงคุณลักษณะที่แท้จริงของผู้ดูแล"
แต่ความเสี่ยงของการจ้างผู้เลี้ยงที่มีปัญหาหรือรุนแรงนั้นทำให้ AI เป็นเครื่องมือที่จำเป็นสำหรับผู้ปกครองที่หวังจะให้ลูกของเขาปลอดภัย
"หากคุณค้นหาผู้ดูแลที่ไม่เหมาะสมใน Google คุณจะเห็นผลลัพธ์นับร้อยรายการ" เขากล่าว “ มีคนอยู่ที่นั่นทั้งที่ป่วยเป็นโรคทางจิตหรือเพิ่งเกิดมาชั่วร้ายเป้าหมายของเราคือทำทุกอย่างที่ทำได้เพื่อหยุดพวกเขา”
การสแกน Predictim เริ่มต้นที่ $ 24.99 และต้องมีชื่อและที่อยู่อีเมลของผู้เลี้ยงและความยินยอมของเธอในการแบ่งปันการเข้าถึงบัญชีโซเชียลมีเดียของเธอในวงกว้าง ผู้เลี้ยงสามารถปฏิเสธได้ แต่ผู้ปกครองจะได้รับแจ้งถึงการปฏิเสธของเธอและในอีเมลที่ผู้ดูแลบอกว่า "ผู้ปกครองที่สนใจจะไม่สามารถจ้างคุณจนกว่าคุณจะทำตามคำขอนี้"
ผู้บริหารของ Predictim กล่าวว่าพวกเขาใช้อัลกอริธึมการประมวลผลภาษาและซอฟต์แวร์รู้จำภาพที่รู้จักกันในชื่อ "คอมพิวเตอร์วิสัยทัศน์" เพื่อประเมินผลการโพสต์ของ Facebook, Twitter และ Instagram ของพี่เลี้ยงเด็ก ผู้ปกครองจัดทำรายงานโดยเฉพาะและไม่จำเป็นต้องบอกผู้ดูแลผล
ผู้ปกครองสามารถดูสื่อสังคมออนไลน์ของผู้ดูแลได้ด้วยตนเอง แต่รายงานที่สร้างโดยคอมพิวเตอร์สัญญาว่าจะทำการตรวจสอบในเชิงลึกเกี่ยวกับกิจกรรมออนไลน์เป็นเวลาหลายปีโดยใช้ตัวเลขหลักเดียวนั่นคือการแก้ปัญหาอย่างง่าย ๆ
การจัดระดับความเสี่ยงแบ่งออกเป็นหลายประเภทรวมถึงเนื้อหาที่ชัดเจนและการใช้ยาในทางที่ผิด การเริ่มต้นใช้งานโฆษณาด้วยว่าระบบสามารถประเมินพี่เลี้ยงในลักษณะบุคลิกภาพอื่น ๆ ได้เช่นความสุภาพความสามารถในการทำงานกับผู้อื่นและ "แง่บวก"
บริษัท หวังที่จะยกระดับอุตสาหกรรม "ผู้ปกครองเอาต์ซอร์ซ" หลายพันล้านดอลลาร์และเริ่มโฆษณาผ่านสปอนเซอร์ที่ชำระเงินสำหรับการเลี้ยงดูบุตรและบล็อก "มัมมี่" การตลาดของ บริษัท มุ่งเน้นไปที่ความสามารถในการเปิดเผยความลับที่ซ่อนอยู่และป้องกัน "ฝันร้ายของผู้ปกครองทุกคน" โดยอ้างถึงคดีอาญารวมถึงผู้ดูแลเด็กในรัฐเคนตักกี้เมื่อต้นปีที่ผ่านมาด้วยการทำร้ายเด็กหญิงอายุแปดเดือน
"หากพ่อแม่ของเด็กหญิงตัวเล็ก ๆ ที่ได้รับบาดเจ็บจากพี่เลี้ยงเด็กนี้สามารถใช้ Predictim เป็นส่วนหนึ่งของกระบวนการทางการแพทย์ของพวกเขาได้" เอกสารการตลาดของ บริษัท กล่าวว่า "พวกเขาจะไม่ทิ้งเธอไว้กับลูกที่มีค่าของพวกเขา"
แต่ผู้เชี่ยวชาญด้านเทคโนโลยีกล่าวว่าระบบยกธงสีแดงของตัวเองรวมถึงความกังวลว่าผู้ปกครองกลัวที่จะขายสแกนบุคลิกภาพอย่างถูกต้อง
พวกเขายังถามว่าระบบได้รับการฝึกอบรมอย่างไรและมีความเสี่ยงเพียงใดที่พวกเขาอาจเข้าใจผิดความหมายที่เบลอของการใช้โซเชียลมีเดียของผู้ดูแล สำหรับการสแกนทั้งหมดที่มีความเสี่ยงสูงสุดผู้ปกครองจะได้รับเพียงข้อเสนอแนะเกี่ยวกับพฤติกรรมที่น่าสงสัยและไม่มีวลีลิงค์หรือรายละเอียดที่เฉพาะเจาะจงสำหรับการประเมินด้วยตนเอง
เมื่อการสแกนของผู้เลี้ยงคนหนึ่งถูกตั้งค่าสถานะสำหรับพฤติกรรมการข่มขู่ที่เป็นไปได้แม่ที่ไม่ปลอดภัยที่ร้องขอมันบอกว่าเธอไม่สามารถบอกได้ว่าซอฟต์แวร์เห็นภาพภาพยนตร์เก่าบทเพลงหรือวลีอื่น ๆ เมื่อเทียบกับภาษารังแกจริงหรือไม่
แต่ Predictim ยังกล่าวว่ามันกำลังเตรียมพร้อมสำหรับการขยายตัวทั่วประเทศ ผู้บริหารระดับสูงที่ Sittercity ซึ่งเป็นตลาดรับเลี้ยงเด็กออนไลน์ที่เข้าเยี่ยมชมโดยผู้ปกครองหลายล้านคนกล่าวว่าพวกเขากำลังเปิดตัวโครงการนำร่องในต้นปีหน้าซึ่งจะเพิ่มการจัดอันดับอัตโนมัติของ Predictim ในการคัดกรองผู้ดูแลและตรวจสอบประวัติ
"การหาคนเลี้ยงสามารถมาพร้อมกับความไม่แน่นอนมากมาย" Sandra Dainora หัวหน้าฝ่ายผลิตภัณฑ์ของ Sittercity กล่าวซึ่งเชื่อว่าเครื่องมือเช่นนี้จะกลายเป็น "สกุลเงินมาตรฐาน" ในไม่ช้าสำหรับการหาผู้ดูแลทางออนไลน์ "ผู้ปกครองมักจะมองหาทางออกที่ดีที่สุดการวิจัยมากที่สุดข้อเท็จจริงที่ดีที่สุด"
เดอะวอชิงตันโพสต์