TDWP писал(а) 17.08.2021, 11:39:Для сверки хешей не требуются нейросети, для сверки хеша достаточно 3х строчек исходного кода.
Это извращенное понимание того, что делает apple.
В оригинале было neuralHash, который какой-то идиот назвал нейросеткой. В реальности
Apple's perceptual hash algorithm, NeuralHash, is not an ML classifier. It has not been trained on CSAM images, e.g. to deduce whether a given unknown image may also con-tain CSAM. It does not contain extracted features from CSAM images (e.g. faces ap-pearing in such images) or any ability to find such features elsewhere. Indeed, Neural-Hash knows nothing at all about CSAM images. It is an algorithm designed to answer whether one image is really the same image as another, even if some image-altering transformations have been applied (like transcoding, resizing, and cropping).
Нейросеть используется в другом месте - для обработки картинок, пересылаемых через мессанджером минорам. Она используется, чтобы предупреждать тех о непристойных картинках. И их родителей, но только если миноры дают на это разрешение перед каждым предупреждением.
The system is designed so that a user remains in control over all communication in the Messages app. This is achieved by making the feature opt-in at the parent/guardian level, requiring child accounts for which this feature is enabled to have set up Family Sharing, ensuring all child accounts have notice if the feature is enabled, and preventing notification to the parent until the child confirms each time that they wish to proceed with viewing or sending a sexually explicit image.
К эппл эти картинки не поступают.
Additionally, Apple gains no knowl-edge about the communications of any users with this feature enabled, and gains no knowledge of child actions or parental notifications.
Изучай
https://www.apple.com/child-safety/pdf/Security_T ... pple_Child_Safety_Features.pdfИспользуй оригинальный дизайн документы, а не кликбейтные статьи. И сам таких не пиши.