Seus nudes podem não estar protegidos no iPhone
Ao que parece, usuários de iPhone que costumam fazer cliques mais sensuais, ou eróticos, devem ficar um pouco mais atentos com os seus celulares. O motivo da preocupação é o sistema de inteligência artificial embarcado no aplicativo Fotos desde o iOS 10, lançado no ano passado.
O recurso faz uso de algoritmos de reconhecimento de imagens para facilitar a busca por determinados tipos de conteúdo dentro do álbum de fotos. Então, por exemplo, se quiser achar uma foto de um dia no parque, você pode buscar pelo termo “árvore” para que as imagens que contenham o item da busca sejam encontradas. O problema é que, aparentemente, ao buscar pela palavra “brassiere” (sutiã, em inglês) o sistema da Apple não apenas reconhece imagens mais sensuais, como também coloca tudo em uma pasta com o mesmo nome da busca.
O caso surgiu à tona no começo deste mês após uma usuária do Twitter surgir desesperada com a informação. Logo várias outras mulheres, após realizarem a busca, também se depararam com a mesma situação: a busca retorna fotos que contêm referências a um corpo com sutiã, ou decotes. E repare que dissemos mulheres, já que a busca pelo termo “brassiere” não resultou em imagens similares de homens, logicamente por se tratar de uma peça do vestuário feminino. No entanto, a busca por peças de roupa íntima masculinas como “cueca”, por exemplo, não retornou nenhum resultado ou pasta.
Fonte: Terra