Follow zdnet: Add us as a preferred source on Google.
ZDNET’s major takeovers
- Apple’s event is a hidden AI update across all of its products.
- The company is going against the grain of other smartphone manufacturers.
- These subtle features enhance user experience and ease.
Kā AI reportieris es pagājušajā gadā esmu apskatījis katru nozīmīgo viedtālruņu palaišanas pasākumu. Rinda starp aparatūru un programmatūru ir izplūdusi ar katru izlaidumu, un jaunas AI funkcijas ir vienlīdz ievērojamas uzņēmuma uzņēmuma. Šonedēļ Apple izvēlējās klusāku pieeju AI iegulšanai savos produktos.
Arī: Apple iPhone 17 notikumu pārskats: reakcija uz iPhone Air, Apple Watches, AirPods Pro 3, vairāk
Pēc pārmērīgas reklāmas un nepietiekamas atcelšanas AI telpā Apple devās atpakaļ uz pamatiem ar jauno produktu pilieniem. Jauno viedtālruņu, pulksteņu un AirPods uzmanības centrā bija jaunā aparatūra, ieskaitot labākas specifikācijas starp kamerām, akumulatora darbības laiku, formas koeficientu un daudz ko citu.
Bet, ja jūs pievērsāt īpašu uzmanību, AI bija atbildīga par dažām no jaunākajām, aizraujošākajām pieredzēm ierīcēs – kaut arī tās nebija obligāti pasniegtas kā Apple Intelligence funkcijas.
Lai palīdzētu jums panākt to, ko jūs, iespējams, esat palaidis garām, apskatiet zemāk esošo izlaidumu noapaļošanu, sākot no visredzamākajiem līdz vismazāk.
1. Tiešsaistes tulkojums AirPodos
Ironiski, ka lielākais AI jauninājums pat nenotika iPhone, bet drīzāk jaunajā AirPods Pro 3. Live tulkojums sniedz reāllaika tulkošanas iespējas, kuras Apple paziņoja WWDC jūnijā iOS 26 uz AirPods. Kā norāda nosaukums, kad funkcija tiek aktivizēta, lietotāji var piedalīties brīvi plūstošās dabiskās sarunās un dzirdēt tulkojumu, ko otra persona saka, dzīvojot ausīs. Lietotājiem, kuriem nav AirPods, viņi savā iPhone ekrānā var redzēt tiešo transkripciju.
Arī: iPhone 17 sastāvs ieradās ar augstākām cenu zīmēm – vai vainas tarifi?
Zdnet’s Jason Hiner demonstrēja šo funkciju tiešraidē no Apple Park, un viņš dalījās ar mani, ka viņš ir pārsteigts, jo pieredze pārsniedza viņa cerības. Kopumā LLM ir dziļa izpratne par valodu un to, kā cilvēki runā, un rezultātā viņi īpaši labi precīzi tulko runu ne tikai burtiski, bet arī izmantojot papildu kontekstu. Tā rezultātā šī integrācija, iespējams, būs patiesi noderīga AI lietošanas gadījums.
2. Centrālais posms saviem selfijiem
Izmantojot centrālo skatuves funkciju, kad jūs uzņemat selfiju, ja vēlaties horizontālu šāvienu, jums tagad nav jāpiespiež tālrunis. Lai gan jūs varat manuāli pārslēgt orientāciju, izmantojot AI, kamera var automātiski paplašināt kadru, kad tā nosaka cilvēku grupu un pagriežas no ainavas uz vertikālu, lai visi iegūtu rāmi. Lai gan šī funkcija nav visvairāk bezgaumīgākā, tā ir viena no tām ērtajām funkcijām, kas ikdienā padarīs jūsu dzīvi ērtāku.
3. Paziņojumi par hipertensiju
One of the biggest announcements at the event was the addition of hypertension notifications to the Apple Watch Series 11 and Ultra Watch 3. The feature will allow your Apple Watch to alert users when it detects signs of chronic high blood pressure, also known as hypertension. While it’s not a standalone AI feature by any means, Apple shared that it was developed using advanced machine learning, in addition to training data from multiple studies. It’s neat to see how Apple has leveraged AI to create a feature that could be very useful in people’s daily lives.
4. New photo styles filter
Apple’s iPhone 16 lineup included a new version of Photo Styles, which allowed users to scroll through various “styles,” or subtle filters that adjust the colors and tone of a photo before taking it. Now, according to Apple, iOS 26 has a new Vivid Style that can “brighten skin tones and add a pop of vibrancy to the entire image.”
Also: Why I’m breaking my 5-year iPhone upgrade cycle — and I’m not alone
The company said these photo styles are powered by Apple’s Neural Engine, which means some AI is at the heart of the technology.
5. Updated photonic engine
The iPhone 17 Pro and Pro Max have an updated Photonic Engine, or computational photography, behind how the phone processes your photos. Apple says that “the image pipeline uses more machine learning to preserve natural detail, reduce noise, and significantly improve color accuracy.” Much like the Center Stage feature, it’s another example of how AI can subtly help make your everyday phone experience easier.
Bonus: New Chipsets
In addition to the new features, Apple unveiled new chipsets to power its devices around the world. While it may seem less flashy than perhaps a revamped Siri, it’s the foundation for more advanced AI features.
Also: Every iPhone That Can Be Updated to iOS 26 (and When You Can Install It)
For example, the new A19 and A19 Pro chipsets have 5-core GPUs with neural accelerators built into each core, which should allow devices to run more powerful generative AI models as seamlessly as possible. Another prime example is the S10 chip in the Apple Watch SE 3, which, even for the first time on a budget model, allows Siri to handle on-device processing.












