61. alfred,
la 1.0.
Resultado: +0
715 mensajes, 24 páginas: 1 23 4 5…; 24 ↖ Volver a la lista de temas
Resultado: +32
la 1.0.
Resultado: +0
pregunta, es normal que piper no me aparezca en la lista de sintetizadores aunque tenga voces instaladas?
Resultado: +0
a mi directamente no me lee uun choto.
tuve que prender jaws y cambiar el sinetizador con jaws y nvda activos.
supongo que ese complemento si es por la g p u, no me servirá de mcho.
veremos más adelante.
Resultado: +0
Eso de no leer todo lo que debería leer ocurrió aquí con la versión 1.0Beta2, pero descubri la razon: mi compu no tiene processador/memoria suficiente. Cuando permiti al proceso de NVDA la prioridad alta en el uso de la CPU, la voz funcionó, pero la respuesta sigue lenta. Claro, esso es cosa de mi compu.
Otros bugs conocidos, por lo que leí en Github, incluyen a la imposibilidad de instalar algunas vozes, de manera que no hay nada que hacer acerca de eso por ahora.
Resultado: +0
para crear una voz ¿qué tan extensa debe ser la muestra de audio para obtener los mejores resultados?, es importante la extención o hay otros aspectos a considerar
Resultado: +0
Tienen que ser en wav, yo no te puedo hablar de cuántos bits y todo ese rollo porque no entiendo nada pero sé que en la guía de entrenamiento dice. Deben durar de a 4 a 15 segundos, y no puede haber ruido, ni música de fondo, ni otra persona, aunque hablando de eso (primer sintetizador que conozco que puede hacer esto) una voz puede contener más de un speaker. Nunca hice el experimento.
Resultado: +0
Yo grabé un audio no tan largo. Quitando la respiración y el silencio, tenía como que 6 minutos y algunos segundos. Dividi ese audio en audios menores con unos 15 segundos cada y creé el dataset. Entrené la voz por 3 horas y me salió bien. Es obvio que un dataset con horas de audio y horas más de entrenamiento suena como que profesional, pero, si la pregunta es "necesita mucho tiempo de audio", la respuesta es "no mucho".
Resultado: +0
Mi PC a estado moviendo todo hasta ahora. Es nueva y corre Whisper y demás procesos, incluso puedo renderizar en Reaper mientras corre whisper y jugar CK3 mientras terminan.
Sería lo primero que no lo puede correr.
No he notado un aumento de trabajo del CPU mientras se usa Piper.De hecho, no supera el 15% de CPU.
Resultado: +0
hola, instalé el complemento y la voz de dalia pero cuando lo elijo en la lista de sintetizadores no me habla. saben que puedo hacer porfa
Resultado: +0
chi y otra jaja, porque las voces suenan como si tuviesen poquito... em.. borrachos
Resultado: +0
Hablan, pero van a tardar en responder. Hay dinosaurios en los que pueden ser más lentas.
Resultado: +0
precisamente a mí tampoco me habla esa voz, tal y como lo puse en el hilo de sintetizadores una vez, no se que pueda ser, pero, si le daba su tiempo para que hable, pero nunca pasó xdd
Resultado: +0
xtrañamente sí me funciona en mi laptop. Quizá debe ser algun... um...
Resultado: +0
En mi opinion, aún está muy bugueado. Y no me refiero a la lentitud. No debería de ser la versión 1.0, si no la 0.x. Un simple comentario.Pero pinta bien a futuro.
Resultado: +0
chicos, una pregunta, como se instalan las voces?
Resultado: +0
primer mensaje
Resultado: +0
Si tienen la beta compilada desafortunadamente por el momento no se pueden instalar las voces de manera local, a menos que se añade una función similar a dicha...
Resultado: +0
gente conocen como se hace para que con la vos de uno pueda salir el texto leído en otro idioma , se que lo estan haciendo , aqui en argentina a un político le hicieron hablar en alemán e italiano
Resultado: +0
Por Piper directamente no, aunque quizá en un futuro implemente algo así a lo rhetorical TTS (lo recuerdan)? Elevenlabs y quizá otros que quizá no conozcan soportan esto
Resultado: +0
es probable que para ese político que escuchaste hayan usado ElevenLabs, que justamente es para que la oz de uno pueda hablar una banda importante de idiomas.
Resultado: +0
Han usado Heygen.
Resultado: +0
Ah eigen! Escuché ese nombre hace 3 o algo de días. Eso es más para traducir vídeos al igual que otra llamada Rask o algo ansí.
Quizá el único workarround si es posible que una voz en Piper tenga soporte multilíngüe es grabar frases enteras en otro idioma, aunque eso tome mucho tiempo y eso más depende de la frase grabada y/o transcrita en los metadatos, por lo que cuando tomas otro texto en el otro idioma no lo pronunciaría bien, algo diferente con ElevenLabs ya que si das más texto automáticamente predice el idioma.
Sobre ello hay un comentario o issue en el repositorio de Piper si se soportarían otros conversores de grafema a fonema (g2p) o fonemizadores a demás de eSpeakNG, como es el caso de DeepPhonemyzer https://github.com/as-ideas/DeepPhonemizer
Y siendo que el entrenamiento de voces se hace mediante VITS https://github.com/jaywalnut310/vits/, también se propone el uso de VITS2 https://github.com/daniilrobnikov/vits2 para entrenar.
Se que es información técnica pero es para estar informado y saber si hay una posibilidad específica, aunque yo i Mateo quizá nos entendemos...
Resultado: +0
pregunta, instalé piper alfa, pero cuando lo puse como sintetizador se me apagó en NVDA: es normal eso?
Resultado: +0
ese sinte no funcionará en tu pc ni de broma.
Resultado: +0
Me mandó el MVda a la mier
Resultado: +0
nada mal.
pero le falta todavía le daré una revisada mas y otra oportunidad si mejoran la velocidad de respuesta y mejoran las voces que suenan como niño de 5 años que está aprendiendo a leer y escribir
Resultado: +0
pero eso de eigen creo que nomás son 3 mins de transcripción en la versión gratuita
Resultado: +0
hola chicos, instalé el complemento, me voy abajo de preferencias pero no viene nada de pipe manajer alguien sabe que puedo hacer aí?
Resultado: +0
deja tu qeu sean 3 mins, llevo 2 días esperando mi video jajaja.
Resultado: +0
En modo gratis es imposible usar Heygen. La cola es interminable.
Resultado: +0
715 mensajes, 24 páginas: 1 23 4 5…; 24 ↖ Volver a la lista de temas
Usted debe estar conectado para poder postear.