Telex : Faille Telegram, Sécurité connectée Google Nest 2021, Linkedin corrige son biais algorithmique

– Faille Telegram. Un chercheur en sécurité de Trustwave a trouvé une vulnérabilité dans la messagerie chiffrée Telegram. Cette dernière permet, sur la version macOS, de retrouver des messages effacés par l’utilisateur. Reegun Richard Jayapau a identifié cette faille dans la fonction d’auto-destruction de l’application. Le chercheur a travaillé avec Telegram pour corriger la faille qui peut violer la vie privée des utilisateur. Sur les deux scénarios d’attaque trouvés (fuite de message après auto-destruction et fuite de message avant ouverture ou fermeture par un destinataire), seul le premier a pour l’heure été corrigé.

– Produits de sécurité pour maisons connectées Google Nest 2021. Une poignée de mois après son Hub 2e génération, Google lève enfin le rideau sur sa gamme 2021 de produits de sécurité Nest pour maisons connectées. Parmi eux, on trouve une caméra extérieure (IP 54) sur batterie également capable de fonctionner en intérieur, intégrant une technologie d’affichage HDR 1080p et une fonctionnalité de vision nocturne sensiblement corrigée par rapport à la précédente version. La sonnette sans fil (door bell) bénéficie aussi d’un lifting : caméra HDR avec vision nocturne, zoom x6 et format 3:4 pour voir les personnes de la tête au pied. Disponibles à compter du 24 aoûts, ces produits seront proposés sous la barre des 200 euros. A noter par ailleurs l’arrivée plus tard dans l’année d’un modèle filaire de caméra Nest et d’un modèle avec projecteur pour 100 € de plus.

– Linkedin corrige son biais algorithmique. Afin d’améliorer la pertinence des suggestions de personnes recommandées sur son réseau social professionnel, Linkedin a fait évoluer son moteur algorithmique. Le principal problème que l’éditeur a voulu résoudre est de diminuer la probabilité que des membres moins actifs sur le réseau soient mis en relation avec des contacts moins pertinents pour eux. Ce n’est pas la première fois que LinkedIn découvre un biais dans les algorithmes de recommandation qui alimentent les fonctionnalités de sa plateforme. Il y a quelques années, l’entreprise a découvert que l’IA qu’elle utilisait pour faire correspondre les candidats avec des opportunités professionnelles classait les candidats en partie sur la base de la probabilité qu’ils postulent à un poste ou répondent à un recruteur.

Leave a Reply

Your email address will not be published. Required fields are marked *