Downeybooker9341

Z Iurium Wiki



Las aplicaciones de citas han sido objeto de un mayor escrutinio por su papel a la hora de facilitar el acoso y el abuso.

El año pasado, una investigación de ABC sobre Tinder encontró que la mayoría de los usuarios que denunciaron delitos de agresión sexual no recibieron respuesta de la plataforma. Desde entonces, se informa que la aplicación ha implementado nuevas funciones para mitigar el abuso y ayudar a los usuarios a sentirse seguros.

En un acontecimiento reciente, la policía de Nueva Gales del Sur anunció que están conversando con la empresa matriz de Tinder, Match Group (que también es propietaria de OKCupid, Plenty of Fish and Hinge) sobre una propuesta para obtener acceso a un portal de agresiones sexuales denunciadas contra Tinder. La policía también sugirió usar inteligencia artificial (IA) para escanear las conversaciones de los usuarios’ en busca de señales de alerta “.

Tinder ya utiliza la automatización para monitorear los mensajes instantáneos de los usuarios para identificar acoso y verificar fotografías personales. Sin embargo, aumentar la vigilancia y los sistemas automatizados no necesariamente hace que las aplicaciones de citas sean más seguras de usar.



Seguridad del usuario en aplicaciones de citas

Las investigaciones han demostrado que las personas tienen diferentes conocimientos de “safety” en las aplicaciones. Si bien muchos usuarios prefieren no negociar el consentimiento sexual en las aplicaciones, algunos sí lo hacen. putas colombia puede implicar la divulgación de la salud sexual (incluido el estado serológico respecto del VIH) y debates explícitos sobre los gustos y preferencias sexuales.

Si nos basamos en la reciente violación de datos de Grindr, existen serios riesgos de privacidad cada vez que se recopila y archiva información confidencial de users’. Como tal, algunos pueden sentirse menos seguros si descubren que la policía podría estar monitoreando sus chats.

Además de eso, las funciones automatizadas en las aplicaciones de citas (que se supone que permiten la verificación y coincidencia de identidad) pueden poner en riesgo a ciertos grupos. Los usuarios trans y no binarios pueden ser identificados erróneamente por sistemas automatizados de reconocimiento de voz e imágenes que están entrenados para el género “see” o “hear” en términos binarios.

Las personas trans también pueden ser acusadas de engaño si no revelan su identidad trans en su perfil. Y quienes lo revelen corren el riesgo de ser atacados por usuarios transfóbicos.







Incrementar la vigilancia policial

No hay evidencia que sugiera que otorgar a la policía acceso a informes de agresión sexual aumentará la seguridad de los usuarios en las aplicaciones de citas, o incluso los ayudará a sentirse más seguros. Las investigaciones han demostrado que los usuarios a menudo no denuncian acoso y abuso a aplicaciones de citas o a las autoridades.

Considere la propuesta equivocada de “consent app” del comisionado de policía de Nueva Gales del Sur, Mick Fuller, el mes pasado; Esta es sólo una de las muchas razones por las que los sobrevivientes de agresión sexual tal vez no quieran comunicarse con la policía después de un incidente. Y si la policía puede acceder a datos personales, esto puede disuadir a los usuarios de denunciar agresiones sexuales.

Con altas tasas de deserción, bajas tasas de condenas y la perspectiva de volver a ser traumatizado en los tribunales, el sistema legal penal a menudo no logra hacer justicia a los sobrevivientes de agresión sexual. Las derivaciones automatizadas a la policía sólo negarán aún más a los supervivientes su agencia.

Además, la asociación propuesta con las fuerzas del orden se enmarca dentro de un proyecto más amplio de intensificación de la vigilancia policial impulsada por procesos de verificación de plataformas. Las empresas tecnológicas ofrecen a las fuerzas policiales una mina de oro de datos. Las necesidades y experiencias de los usuarios rara vez son el foco de este tipo de asociaciones.

Leer más: La policía australiana está utilizando el sistema de reconocimiento facial Clearview AI sin responsabilidad

Match Group y la policía de Nueva Gales del Sur aún no han publicado información sobre cómo funcionaría dicha asociación y cómo (o si) se notificaría a los usuarios. Los datos recopilados podrían incluir nombres de usuario, género, sexualidad, documentos de identidad, historiales de chat, geolocalización y estado de salud sexual.



Los límites de la IA

La policía de Nueva Gales del Sur también propuso utilizar IA para escanear conversaciones de usuarios’ e identificar señales de alerta de “que podrían indicar posibles delincuentes sexuales. Esto se basaría en las herramientas actuales de Match Group que detectan violencia sexual en chats privados de users’.

Si bien un sistema basado en IA puede detectar abusos manifiestos, los abusos cotidianos y “ordinarios (que son comunes en contextos de citas digitales) pueden no activar un sistema automatizado. Sin contexto, es difícil para la IA detectar comportamientos y lenguajes que son perjudiciales para los usuarios.

Puede detectar amenazas físicas manifiestas, pero no comportamientos aparentemente inocuos que sólo los usuarios individuales reconocen como abusivos. Por ejemplo, algunos pueden acoger con agrado los mensajes repetitivos, pero otros los consideran dañinos.

Además, incluso cuando la automatización se vuelve más sofisticada, los usuarios con intenciones maliciosas pueden desarrollar formas de eludirla.

Autoři článku: Downeybooker9341 (Shannon MacMillan)