Bizimle iletişime geçin

Haberler

Apple Podcasts otomatik olarak oluşturulan transkriptler sunacak

Apple Podcasts uygulamasındaki her podcast için transkripsiyonları iOS ve iPadOS’in bir sonraki sürümüne ekleyeceğini ve bunun ilkbaharda kullanıma sunulacağını açıkladı.

Yayınlanma tarihi

on

Apple bugün iOS 17.4’ün ilk geliştirici beta sürümünü yayınladı ve Apple Podcasts uygulamasında birkaç değişiklik gerçekleştirdi. En önemlisi, Apple Podcasts artık transkriptleri destekliyor. Apple, yayınlandıktan sonra bölümler için otomatik olarak transkriptler oluşturacağını ve bunların daha sonra Apple Podcasts uygulamasında görüntülenebileceğini duyurdu.

Apple, podcast transkriptlerinin podcast bölümünü yayınladıktan “kısa bir süre sonra” kullanıma sunulacağını bildirdi. Şirket açıklamasında şunlar kaydedildi:

“Apple, yeni bir bölüm yayınlandıktan sonra otomatik olarak transkript oluşturur. Bölümünüz hemen dinlenmeye hazır olacak ve kısa bir süre sonra transkriptiniz hazır olacak. Transkriptiniz işlenirken kısa bir gecikme olacaktır. Bölümünüzün bazı kısımları dinamik olarak eklenen sesle değişirse Apple Podcasts, orijinal transkripsiyondan bu yana değişen ses bölümlerini görüntülemeyecek. Müzik sözleri de transkriptlerde görüntülenmez.”

Apple Podcasts uygulamasındaki “Şimdi Oynatılıyor” ekranında, alt araç çubuğunda o bölümün metnini görüntülemek için dokunabileceğiniz yeni bir “alıntı” simgesi var. Apple, bir bölüm oynatılırken her bir kelime vurgulanarak takip etmeyi kolaylaştıracak. Dinlemeye o noktadan başlamak için canlı metinde herhangi bir yere dokunabilirsiniz.

Ayrıca bir bölüme dokunup basılı tutarak ve “Transkripti Görüntüle”yi seçerek bölümü dinlemeden transkriptin düz metin versiyonunu görüntüleyebilirsiniz. Ayrıca her transkript içinde belirli terimler için arama yapma olanağı da var.

Spotify da transkript ekleyeceğini duyurmuştu

Bu arada Spotify Eylül sonunda “platformdaki daha fazla podcast için zamanla senkronize edilmiş transkriptleri” duyurdu. Spotify for Podcasters’da bu sürece katılabilirsiniz, ancak şu anda PodNews’in aktardığına göre yalnızca birkaç Gimlet programı için bu özellik aktif. Türkiye’de de son günlerde bazı yayıncılarda bu özelliğin aktif edildiğini görüyoruz. (Örneğin, Biraz Konuşabilir miyiz?, Ortamlarda Satılacak Bilgi, gibi bazı podcastlar). Bu yayınların ortak özelliği ise ses dosyalarının Spotify for Podcasts (eski adıyla Anchor) sunucusu üzerinde yayınlanmış olması. Farklı sunucular üzerinden yayınlanan podcast’lere Spotify’ın transkript servisi sağlayıp sağlamadığını, ya da sağlayıp sağlamayacçağını şu an itibariyle bilmiyoruz. Ayrıca şu anda podcast yayıncıları Spotify’da transkriptleri düzenleyemiyor veya kendi transkriptlerini sağlayamıyor.

Amazon Music de transkript özelliğini duyurdu ancak aktive edemedi

Öte yandan, Amazon Music de, Kasım 2021’de uygulamasına transkriptler eklediğini duyurmuştu. Amazon PodNews’e yaptığı açıklamada podcast yayıncılarının kendi transkriptlerini düzenleyemeyeceğini veya sağlayamayacağını aktardı. Ancak o zamandan beri Amazon’un kendi platformu Wondery de dahil olmak üzere, bugün Amazon Music uygulamasında herhangi bir programın transkript bulunmuyor.

Okumaya devam et
Yorum yapmak için tıklayın

Yanıt Ver

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Haberler

YouTube dinamik reklam ekleme özelliği getirmeye hazırlanıyor

Semafor’un haberine göre YouTube dinamik reklam ekleme özelliğini devreye sokabilir. Haberde, YouTube’un açık RSS kullanan ses podcast’lerinde olduğu gibi “ana sunucu tarafından okunan reklamların dinamik olarak tek tek YouTube videolarına eklenmesine ve değiştirilmesine izin vereceği” belirtiliyor. YouTube iddialarla ilgili henüz bir yorum yapmadı.

Yayınlanma tarihi

=>

YouTube, YouTuber’ların, podcast yayıncılarının, yayıncıların ve diğer içerik oluşturucuların para kazanma biçimlerini altüst edebilecek ve Google’ın sahip olduğu devin medya dünyasının merkezindeki yerini sağlamlaştırabilecek teknik bir değişikliği test etmeye hazırlanıyor.

Semafor, platformun şu anda Spotify ve Apple Podcasts gibi diğer platformlarda olduğu gibi, ana sunucu tarafından okunan reklamların YouTube videolarına dinamik olarak eklenmesine ve değiştirilmesine olanak tanıyacak bir özellik geliştirdiğini öğrendi.

Ortalama bir YouTube tüketicisinin büyük bir fark görmesi pek olası olmasa da, bu hamle YouTube’da önemli ölçüde daha fazla reklam esnekliği yaratacak ve podcast yayıncıları için potansiyel olarak daha büyük bir reklam doları havuzunun kilidini açabilecek.

Şirket sözcüsü bir e-postada, planlanan testlerle ilgili paylaşacakları herhangi bir ayrıntı olmadığını söyledi, ancak Semafor’u YouTube CEO’su Neal Mohan’ın platformun 2025 hazırlıklarını özetleyen halka açık mektubuna yönlendirdi: “Bu yıl podcast yayıncılarını desteklemek için daha fazla araç sunacağız, içerik oluşturucular için para kazanmayı iyileştireceğiz ve podcast’leri keşfetmeyi daha da kolaylaştıracağız.”

YouTube’un testi, video yoluyla sohbet programı tüketiminin patlamasıyla birlikte birçok YouTuber ve podcast yayıncısının platformla ilgili bir şikayetine odaklanıyor.

YouTube videolarda kendi programatik reklamlarını yayınlıyor ve bu reklamlardan elde edilen geliri içerik oluşturucular, podcast yayıncıları ve yayıncılarla paylaşıyor. Ancak Apple Podcasts, Spotify ve diğer podcast platformlarında, podcast yayıncıları genellikle kendi host-read reklamlarını satıyor ve bu reklamlar, podcast yayıncısı üzerinde anlaşılan indirme hedefine ulaştığında değiştirilebiliyor. Bu değiştirilebilirlik, aynı sponsorluğun belirli bir podcast bölümünde sonsuza kadar yayınlanmayacağı anlamına gelir, bu nedenle eski podcast bölümlerini dinleyen dinleyicilerin o anda kendileriyle alakalı bir reklam alma olasılığı daha yüksektir ve podcast yayıncıları bu reklam alanı için daha fazla ücret talep edebilir. YouTube’un podcast tüketimi için bir platform olarak büyümesine rağmen, bu dinamik olarak eklenen ana sunucu tarafından okunan video reklamlarına izin vermedi, yani bir podcast sunucusunun bir YouTube videosunda okuduğu reklam, o videoda kalıcı olarak sıkışmış durumda.

Bu nedenle, YouTube podcast izleyicileri için büyüyen bir yer temsil etse de, en iyi podcast yayıncılarının çoğu hala paralarının çoğunu diğer platformlardan kazanıyor. YouTube bu reklam değiştirme özelliğini podcast yayıncılarına açarsa, YouTube’da daha yüksek fiyatlı reklam paketleri satarak veya çeşitli podcast platformlarında reklamları bir araya getirerek daha iyi para kazanmalarına olanak sağlayabilir.

Daha geniş podcast reklam pazarını da etkileyebilecek bazı karışıklıklar var. Spotify ve Apple gibi platformlardaki bölüm indirmeleri oldukça istikrarlı ve öngörülebilir olma eğilimindeyken, YouTube izleyiciliği, tek bir videonun YouTube’un algoritmasında ilgi görüp görmediğine veya geniş çapta paylaşılıp paylaşılmadığına bağlı olarak çılgınca değişebilir. YouTube izleyicileri aynı zamanda geleneksel podcast dinleyicilerinden daha az değerli olarak görülüyor çünkü genellikle bir videoya rastlıyorlar ya da belirli bir podcast’i arayan dinleyicilerden daha kısa bir süre izliyorlar. Bu durum, değiştirilebilirliğin olmamasıyla birleşince YouTube’daki reklamların fiyatını düşürdü.

Ancak bu hamle, YouTube’un podcast yayıncılığına odaklanmasının ciddiyetine ve bu mecranın YouTube’un ana işi için ne kadar önemli olduğuna işaret ediyor.

Şirket, platformdaki aylık podcast dinleyicisinin 400 milyon saati aştığını ve yakın zamanda bir ay içinde YouTube’da podcast içeriği görüntüleyen bir milyar kullanıcı olduğunu belirterek, büyük podcast kitlesini giderek daha fazla sayıda olduğunu duyurdu. Ayrıca haber yaratıcıları için giderek daha fazla ortaklık teklif ediyor.

(Semafor’un edindiği bilgiye göre, şirketin ilk podcast direktörü Kai Chuk kısa bir süre önce YouTube’dan ayrıldı. Şirket Semafor’a Podcast Ortaklıkları ekibini Haber ve Yurttaşlık Ortaklıkları ekipleriyle bir araya getirerek yeniden yapılandırdığını ve “Kai Chuk’a yıllar boyunca yaptığı tüm katkılar için minnettar olduğunu” söyledi.)

Bu ayın başlarında Semafor’un Mixed Signals podcast’ine verdiği bir röportajda Mohan, bir CEO olarak bir numaralı endişesinin, en iyi içerik oluşturucularının hala platformda yayın yapmak istemelerini sağlamak olduğunu vurguladı.

Mohan, YouTube’un son üç yılda içerik oluşturuculara, medya şirketlerine ve diğer ortaklara 70 milyar dolar ödeme yaptığını söyleyerek, “Nihayetinde can damarımız, temel bileşenlerimizi memnun etmekle ilgili. Eğer içerik üreticilerimize iki çok temel şekilde hizmet sunamıyorsak o zaman başımız dertte demektir. YouTube, dünyanın neresinde olurlarsa olsunlar yaratıcı bir fikri ya da yaratıcıyı hayranlarıyla buluşturmanın en etkili yolu olmalı. … İkincisi ise, ilk günlerden bu yana misyonumuzun temelini oluşturan, para kazanmalarına yardımcı oluyor muyuz? Biz orijinal ve en büyük yaratıcı ekonomisiyiz” dedi.

YouTube’un podcast yayıncılığına daha fazla odaklanması rakiplerinin de dikkatini çekti.

Spotify 2010’ların sonlarında müziğin ötesine geçerek podcast sektörüne açılmak için yüz milyonlarca dolar harcadı. Bu çaba bazı iyi belgelenmiş başarısızlıklar ve yanlış adımlar getirmiş olsa da, sonuçta şirketin abonelikleri artırma ve podcast yayıncılığının en büyük oyuncularından biri olma hedefine ulaşmasına yardımcı oldu. Şirket konumunu YouTube’a bırakmaya hevesli değil. Geçen yıl İsveçli yayın devi, en iyi podcast yayıncılarından bazılarına video eklemeleri için ödeme yapmaya başladı. Şirket ayrıca bu yılın başlarında premium aboneler için reklamsız görüntülemeyi başlattı.

Netflix’in de kendi platformunda podcast yayıncılığına geçip geçmeyeceğini araştırdığı bildiriliyor.

Kaynak: Max Tani / Semafor

Okumaya devam et

Haberler

OpenAI: Yapay zekalı sesli asistan artık sohbet etmek için daha iyi

OpenAI, ChatGPT’de gerçek zamanlı konuşmalara olanak tanıyan yapay zeka ses özelliği Gelişmiş Ses Modu için, yapay zeka asistanını daha cana yakın hale getirmek ve kullanıcıları daha az rahatsız etmek için güncellemeler yayınladı.

Yayınlanma tarihi

=>

OpenAI, ChatGPT’de gerçek zamanlı konuşmalara olanak tanıyan yapay zeka ses özelliği Gelişmiş Ses Modu için, yapay zeka asistanını daha cana yakın hale getirmek ve kullanıcıları daha az rahatsız etmek için güncellemeler yayınladı.

OpenAI eğitim sonrası araştırmacısı Manuka Stratta, Pazartesi günü şirketin resmi sosyal medya kanallarında yayınlanan bir videoda değişiklikleri duyurdu.

OpenAI’nin son güncellemesi, yapay zekalı sesli asistanlarda sıkça karşılaşılan ve kullanıcılar düşünmek ya da derin bir nefes almak için durakladıklarında sözlerini kesen bir sorunu ele almayı amaçlıyor.

ChatGPT’nin ücretsiz kullanıcıları artık, kullanıcıların AI asistanıyla konuşurken kesintiye uğramadan duraklamalarına olanak tanıyan Gelişmiş Ses Modunun yeni bir sürümüne erişebiliyor. OpenAI’nin Plus, Teams, Edu, Business ve Pro katmanlarına abone olanlar da dahil olmak üzere ChatGPT’nin ücretli kullanıcıları da artık Gelişmiş Ses Modu’nu kullanırken daha az sıklıkta kesinti yaşayacak ve sesli asistan için geliştirilmiş bir kişilik elde edecekler.

Bir OpenAI sözcüsü yaptığı açıklamada, ödeme yapan kullanıcılar için yeni yapay zeka sesli asistanının “cevaplarında daha doğrudan, ilgi çekici, özlü, spesifik ve yaratıcı” olduğunu söyledi.

Gelişmiş Ses Modu’nda yapılan iyileştirmeler, yapay zeka sesli asistan alanındaki rakiplerin yoğun baskısı altında gerçekleşti.

Oculus’un kurucu ortağı Brendan Iribe tarafından yaratılan Andreessen Horowitz destekli bir girişim olan Sesame, kısa süre önce Maya ve Miles adlı doğal sesli yapay zeka asistanlarıyla viral oldu. Alexa’nın LLM destekli versiyonunu piyasaya sürmeye hazırlanan Amazon gibi daha büyük oyuncular da yapay zeka sesli asistan alanına daha agresif bir şekilde adım atıyor.

Kaynak: TechCrunch

Okumaya devam et

Haberler

OpenAI, gerçekçi, duygusal konuşmalar üretebilen yeni nesil bir “Ses Motoru” tanıttı

OpenAI, daha güvenilir konuşmadan metne dönüştürme ve arka plan gürültüsü ve aksanlar gibi zorlu ses koşullarının daha iyi işlenmesini sağlayan gpt-4o-transcribe ve gpt-4o-mini-transcribe adlı geliştirilmiş ses modellerini yayınladı.

Yayınlanma tarihi

=>

OpenAI, API’sine, şirketin önceki sürümlerini geliştirdiğini iddia ettiği yeni transkripsiyon ve ses üreten yapay zeka modelleri getiriyor.

OpenAI için bu modeller, kullanıcılar adına görevleri bağımsız olarak yerine getirebilen otomatik sistemler oluşturmak anlamına gelen daha geniş “ajan” vizyonuna uyuyor. “Temsilci” tanımı tartışmalı olabilir, ancak OpenAI Ürün Başkanı Olivier Godement bir yorumu, bir işletmenin müşterileriyle konuşabilen bir sohbet robotu olarak tanımladı.

Godement, “Önümüzdeki aylarda giderek daha fazla temsilcinin ortaya çıktığını göreceğiz. Genel tema, müşterilerin ve geliştiricilerin faydalı, kullanılabilir ve doğru aracılardan yararlanmasına yardımcı olmak” dedi.

OpenAI, yeni metinden konuşmaya modeli “gpt-4o-mini-tts ‘nin sadece daha nüanslı ve gerçekçi bir konuşma sunmakla kalmayıp aynı zamanda önceki nesil konuşma sentezleme modellerine göre daha ’yönlendirilebilir” olduğunu iddia ediyor. Geliştiriciler gpt-4o-mini-tts’e doğal dilde bir şeyleri nasıl söyleyeceği konusunda talimat verebiliyor; örneğin, “çılgın bir bilim adamı gibi konuş” veya “bir farkındalık öğretmeni gibi sakin bir ses kullan”.

İşte “gerçek suç tarzı”, yıpranmış bir ses:

OpenAI ürün ekibinin bir üyesi olan Jeff Harris, TechCrunch’a verdiği demeçte, amacın geliştiricilerin hem ses “deneyimini” hem de “bağlamı” uyarlamasına izin vermek olduğunu söyledi.

Harris, “Farklı bağlamlarda, sadece düz, monoton bir ses istemezsiniz. Bir müşteri destek deneyimindeyseniz ve sesin bir hata yaptığı için özür dilemesini istiyorsanız, aslında sesin içinde bu duyguyu barındırmasını sağlayabilirsiniz… Buradaki en büyük inancımız, geliştiricilerin ve kullanıcıların yalnızca ne konuşulduğunu değil, nasıl konuşulduğunu da gerçekten kontrol etmek istedikleridir” dedi.

OpenAI’nin yeni konuşmadan metne modelleri olan “gpt-4o-transcribe” ve “gpt-4o-mini-transcribe” ise şirketin uzun süredir kullandığı Whisper transkripsiyon modelinin yerini alıyor. OpenAI, “çeşitli, yüksek kaliteli ses veri kümeleri” üzerinde eğitilen yeni modellerin kaotik ortamlarda bile aksanlı ve çeşitli konuşmaları daha iyi yakalayabildiğini iddia ediyor.

Harris ayrıca halüsinasyon görme olasılıklarının da daha düşük olduğunu sözlerine ekledi. Whisper, ırkçı yorumlardan hayali tıbbi tedavilere kadar her şeyi transkriptlere ekleyerek, konuşmalarda kelimeleri ve hatta tüm pasajları uydurma eğilimindeydi.

Harris, “Bu modeller bu konuda Whisper’a kıyasla çok daha gelişmiş durumda. Modellerin doğru olduğundan emin olmak, güvenilir bir ses deneyimi elde etmek için tamamen önemlidir ve [bu bağlamda] doğru olması, modellerin kelimeleri tam olarak duydukları [ve] duymadıkları ayrıntıları doldurmadıkları anlamına gelir” diye konuştu.

Bununla birlikte, kat ettiğiniz mesafe yazıya dökülen dile bağlı olarak değişebilir.

OpenAI’nin dahili kıyaslamalarına göre, iki transkripsiyon modelinden daha doğru olan gpt-4o-transcribe, Tamil, Telugu, Malayalam ve Kannada gibi Indic ve Dravidian dilleri için %30’a yaklaşan (%120 üzerinden) bir “kelime hata oranına” sahip. Bu, modelden alınan her 10 kelimeden üçünün bu dillerde insan transkripsiyonundan farklı olacağı anlamına gelir.

OpenAI, geleneği bozarak yeni transkripsiyon modellerini açık bir şekilde kullanıma sunmayı planlamıyor. Şirket geçmişte Whisper’ın yeni sürümlerini MIT lisansı altında ticari kullanım için yayınlamıştı.

GPT-4o-transcribe ve gpt-4o-mini-transcribe’ın “Whisper’dan çok daha büyük” olduğunu ve bu nedenle açık bir sürüm için iyi adaylar olmadığını söyleyen Harris, “Whisper gibi dizüstü bilgisayarınızda yerel olarak çalıştırabileceğiniz türden bir model değiller. Bir şeyleri açık kaynak olarak yayınlıyorsak, bunu düşünceli bir şekilde yaptığımızdan ve bu özel ihtiyaç için gerçekten geliştirilmiş bir modele sahip olduğumuzdan emin olmak istiyoruz. Ve son kullanıcı cihazlarının açık kaynak modelleri için en ilginç durumlardan biri olduğunu düşünüyoruz” dedi.

Kaynak: TechCrunch

Okumaya devam et

En son