• Sl chevron_right

      Contact publication

      pubsub.blastersklan.com / slashdot · 14:28 edit · 1 minute

    404 Media: Apple has removed a number of AI image generation apps from the App Store after 404 Media found these apps advertised the ability to create nonconsensual nude images, a sign that app store operators are starting to take more action against these types of apps. Overall, Apple removed three apps from the App Store, but only after we provided the company with links to the specific apps and their related ads, indicating the company was not able to find the apps that violated its policy itself. Apple's action comes after we reported on Monday that Instagram advertises nonconsensual AI nude apps. By browsing Meta's Ad Library, which archives ads on its platform, when they ran, on what platforms, and who paid for them, we were able to find ads for five different apps, each with dozens of ads. Two of the ads were for web-based services, and three were for apps on the Apple App Store. Meta deleted the ads when we flagged them. Apple did not initially respond to a request for comment on that story, but reached out to me after it was published asking for more information. On Tuesday, Apple told us it removed the three apps on its App Store.

    Read more of this story at Slashdot.

    Apple Removes Nonconsensual AI Nude Apps From App Store
    • wifi_tethering open_in_new

      This post is public

      apple.slashdot.org /story/24/04/26/144218/apple-removes-nonconsensual-ai-nude-apps-from-app-store

    • chevron_right

      Qualcomm vend du rêve avec ses Snapdragon X… mais mieux vaut se méfier

      news.movim.eu / JournalDuGeek · 14:14

    Snapdragon X Elite

    Qualcomm ne lésine pas sur les efforts pour vanter les mérites de son nouveau SoC, soit-disant parti pour révolutionner l'écosystème Windows. Mais le manque de transparence du fondeur incite à la prudence.
    • chevron_right

      Les ventes d’iPhone en 2023 sont “inquiétantes” selon ce rapport

      news.movim.eu / JournalDuGeek · 10:06

    Iphone 15 Smartphone

    Les derniers chiffres sur le nombre d'activation d'iPhone aux États-Unis ont atteint leur plus bas niveau depuis 2017.
    • chevron_right

      Des milliers d’iPhone fonctionnels finissent à la poubelle, un vrai désastre écologique

      news.movim.eu / JournalDuGeek · 09:03

    Apple Recyclage Iphone Daisy

    Dans une longue enquête elle média Bloomberg révèle qu'Apple préfère broyer des milliers d'iPhone plutôt que de les réparer.
    • chevron_right

      iPhone 14 : Amazon brade le prix du smartphone d’Apple grâce à un code promo

      news.movim.eu / JournalDuGeek · 08:09

    iphone 14

    Profitez de 150 euros de réduction sur l'iPhone 14 grâce à cette double offre d'Amazon avec ce coupon à activer sur la fiche du produit.
    • chevron_right

      Apple releases eight small AI language models aimed at on-device use

      news.movim.eu / ArsTechnica · Yesterday - 20:55

    An illustration of a robot hand tossing an apple to a human hand.

    Enlarge (credit: Getty Images)

    In the world of AI, what might be called "small language models" have been growing in popularity recently because they can be run on a local device instead of requiring data center-grade computers in the cloud. On Wednesday, Apple introduced a set of tiny source-available AI language models called OpenELM that are small enough to run directly on a smartphone. They're mostly proof-of-concept research models for now, but they could form the basis of future on-device AI offerings from Apple.

    Apple's new AI models, collectively named OpenELM for "Open-source Efficient Language Models," are currently available on the Hugging Face under an Apple Sample Code License . Since there are some restrictions in the license, it may not fit the commonly accepted definition of "open source," but the source code for OpenELM is available.

    On Tuesday, we covered Microsoft's Phi-3 models , which aim to achieve something similar: a useful level of language understanding and processing performance in small AI models that can run locally. Phi-3-mini features 3.8 billion parameters, but some of Apple's OpenELM models are much smaller, ranging from 270 million to 3 billion parameters in eight distinct models.

    Read 7 remaining paragraphs | Comments

    • chevron_right

      AirPods Pro 2 : les meilleurs écouteurs d’Apple passent enfin sous les 200 €

      news.movim.eu / Numerama · Yesterday - 09:41

    [Deal du Jour] Les excellents écouteurs d’Apple sont souvent en promotion, mais descendent rarement sous les 200 €. À ce prix, difficile de ne pas conseiller les AirPods Pro 2.

    • chevron_right

      iPad Pro & Air : gros changements à venir sur les écrans ?

      news.movim.eu / JournalDuGeek · Yesterday - 08:56

    Apple Ipad Air Rumeurs

    Apple serait sur le point de changer sa technologie d'écran pour sa prochaine génération d'iPad Air et Pro ?
    • chevron_right

      OpenELM – Apple sort ses modèles IA légers et open-source

      news.movim.eu / Korben · Yesterday - 08:19 · 2 minutes

    Vous connaissez OpenELM ? Non, normal, ça vient de sortir. Et c’est une famille de modèles IA open-source made in Apple conçus pour tourner directement sur vos appareils, sans passer par le cloud. En gros, c’est de l’IA maison dans nos iPhone, iPad et Mac…etc.

    OpenELM combine plusieurs modèles de langage naturel (LLMs) utilisant des algorithmes évolutionnistes qui exploitent les principes techniques suivants :

    1. Layer-wise scaling strategy : Cette stratégie consiste à allouer les paramètres dans les couches d’un modèle transformeur pour améliorer l’exactitude. Les modèles sont pré-alourés avec un budget de paramètres de 270 millions, 450 millions, 1,1 milliard et 3 milliards.
    2. Pré-entraînement : Les modèles ont été pré-entraînés à l’aide d’une combinaison de datasets, incluant une sous-ensemble de Dolma v1.6, RefinedWeb, deduplicated PILE et une sous-ensemble de RedPajama. Ce dataset contient environ 1,8 trillion de tokens.
    3. Evolutionary algorithms : Les algorithmes évolutionnistes sont utilisés pour combiner les modèles LLM et améliorer l’exactitude. Cela permet d’exploiter les forces combinées des modèles pré-alourés et d’améliorer leur précision.

    Alors évidemment, Apple arrive un peu après la bataille dans l’IA, pendant que Microsoft et Google déboulent à fond la caisse. Mais bon, mieux vaut tard que jamais, et puis ils compensent avec du lourd , soit 8 modèles OpenELM au total , dont 4 pré-entraînés avec CoreNet et 4 fine-tunés. Et avec leur stratégie de scaling par couche ça optimise à fond l’allocation des paramètres.

    Allez, je traduits… En gros, ça veut dire qu’ils sont hyper efficaces et précis. Prenez le modèle à 1 milliard de paramètres et bien bah il explose un modèle équivalent comme OLMo de 2,36% en précision, avec 2 fois moins de tokens en pré-entraînement. Et ce qui est top, c’est qu’Apple balance tout : code, logs d’entraînement, configuration…etc et pas juste le modèle final. Et vu qu’ils utilisent des datasets publics, c’est top en matière de transparence et vérification des biais.

    En tout cas, une chose est sûre, avec OpenELM , Apple nous prouve qu’ils sont dans la course, et qu’ils comptent bien mettre le paquet sur l’IA

    Et Merci à Letsar pour l’info, c’est lui qui m’a mis la puce à l’oreille sur OpenELM. Tu gères !

    Source