- Knuffelen Face heeft HuggingsNap gelanceerd, een iOS -app die kan analyseren en beschrijven wat de camera van uw iPhone ziet.
- De app werkt offline en verzendt nooit gegevens naar de cloud.
- HuggingsNap is onvolmaakt, maar laat zien wat volledig op apparaten kan worden gedaan.
Eyenight to Ai wordt steeds gebruikelijker, omdat tools zoals Chatgpt, Microsoft Copilot en Google Gemini bril uitrollen voor hun AI -tools. Knuffelen Face heeft zojuist zijn eigen spin op het idee laten vallen met een nieuwe iOS -app genaamd Huggingsnap die aanbiedt om naar de wereld te kijken via de camera van je iPhone en te beschrijven wat het ziet zonder ooit verbinding te maken met de cloud.
Zie het als een persoonlijke gids die weet hoe ze hun mond moet houden. HuggingsNap loopt volledig offline met behulp van het interne vision-model van Hugging Face, SMOLVLM2, om onmiddellijke objectherkenning, scènebeschrijvingen, tekstlezen en algemene observaties over uw omgeving mogelijk te maken zonder dat uw gegevens naar internet worden gestuurd.
Die offline capaciteit maakt HuggingNap bijzonder nuttig in situaties waarin connectiviteit vlekkerig is. Als je wandelt in de wildernis, naar het buitenland reizen zonder betrouwbaar internet, of gewoon in een van die gangpaden van supermarkten waar mobiele service op mysterieuze wijze verdwijnt, dan is het een echte zegen hebben. Bovendien beweert de app superefficiënt te zijn, wat betekent dat het uw batterij niet zal aftappen zoals cloud-gebaseerde AI-modellen doen.
Huggingsnap kijkt naar mijn wereld
Ik besloot de app een werveling te geven. Eerst wees ik het op mijn laptopscherm terwijl mijn browser op mijn Techradar -biografie stond. In het begin heeft de app een solide taak gedaan om de tekst te transcriberen en uit te leggen wat het zag. Het dreef echter uit de realiteit toen het de krantenkoppen en andere details rond mijn bio zag. HuggingsNap dacht dat de verwijzingen naar nieuwe computerchips in een kop een indicator waren van wat mijn laptop voedt, en leek te denken dat sommige van de namen in krantenkoppen andere mensen aangaven die mijn laptop gebruiken.
Ik richtte toen mijn camera op de playpen van mijn zoon vol speelgoed dat ik nog niet had opgeruimd. Nogmaals, de AI heeft uitstekend werk geleverd met de brede slagen bij het beschrijven van het speelgebied en het speelgoed erin. Het kreeg de kleuren en zelfs de texturen goed bij het identificeren van gevulde speelgoed versus blokken. Het viel ook neer in enkele details. Het noemde bijvoorbeeld een beer een hond en leek te denken dat een stapelring een bal was. Over het algemeen zou ik Huggingsnap’s AI geweldig noemen om een scène voor een vriend te beschrijven, maar niet helemaal goed genoeg voor een politierapport.
Zie de toekomst
Huggingsnap’s on-device-aanpak onderscheidt zich van de ingebouwde vaardigheden van je iPhone. Hoewel het apparaat planten kan identificeren, tekst van afbeeldingen kan kopiëren en u vertelt of die spin op uw muur het soort is waardoor u moet verhuizen, moet het bijna altijd wat informatie naar de cloud sturen.
HuggingsNap is opmerkelijk in een wereld waar de meeste apps alles bij je bloedgroep willen volgen. Dat gezegd hebbende, Apple investeert zwaar in AI op de apparaten voor zijn toekomstige iPhones. Maar voor nu, als je privacy wilt met je AI -visie, is HuggingsNap misschien perfect voor jou.