Tv digital en México: desinterés y opacidad

Gabriel Sosa Plata

¡Cinco años! Sin rumbo, a tientas, sin claridad, con compromisos incumplidos avanza la transición analógico-digital de la tv.

A más de cinco años de haber iniciado la introducción de la tv digital terrestre (TDT), se da a conocer un primer dato oficial de cuántos hogares en nuestro país cuentan con televisor digital
¡Cinco años! Sin rumbo, a tientas, sin claridad, con compromisos incumplidos avanza la transición analógico-digital de la tv.

El boletín 04/2010 de la Cofetel reveló que, de acuerdo con la Encuesta sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares, del INEGI, “existen 3.6 millones de hogares con televisor digital”, cifra que representa 13.6% del total de los hogares con tv en el país. Pero aclara que de esos 3.6 millones de hogares, es decir, menos de la mitad (1.6), están en posibilidades de recibir las transmisiones abiertas de TDT, ya que en el resto se utilizan los equipos para tv por cable y satelital, juegos o videos.

La Cofetel admite lo obvio, “que la penetración de receptores digitales aún es baja, lo que justifica la necesidad de que se implementen estrategias para estimular la adquisición de este tipo de televisores”. ¿Cuáles serán estas estrategias? ¿Quién las impulsará? ¿Con qué recursos? ¿De qué manera participarán las televisoras? ¿Por qué hasta ahora se toman acciones y no antes? Ya nos informará ese órgano, esperemos que no sea en 2015.

Mientras en EU dejó de existir la tv analógica, en México apenas se está pensando qué hacer con la TDT. Y parece no existir ninguna prisa, ni del gobierno ni de algunos operadores. Las concesiones de las dos principales televisoras fueron refrendadas, como consecuencia del acuerdo de política de TDT (2 de julio de 2004), hasta 2021, año previsto para el apagón analógico, pero esta fecha podría ampliarse más si las condiciones del mercado no son las adecuadas.

A como vamos, el apagón analógico se dará en 2030, 2040 o 2050, por la falta de estímulos e información. Según el acuerdo referido, el Comité Consultivo de Tecnologías Digitales para la Radiodifusión, integrado por tres representantes del gobierno y tres de la cámara de radio y tv (dos de ellos, por cierto, de Televisa), tiene la obligación de evaluar el desarrollo de la TDT, considerando factores como inversiones realizadas, mercado de receptores, mercado publicitario, encuestas, censos y proyecciones, niveles de audiencia y más.

Este comité debió entregar al titular de la SCT un reporte anual desde 2007 sobre la introducción de la TDT, con las recomendaciones necesarias para adecuar el proceso de transición. La secretaría, a su vez, debió publicar en internet una versión de dicho reporte “con la información que se considere como pública en términos” de la ley de transparencia. Hasta ahora no existe información pública de estos reportes (¿existirán, acaso?), con excepción deuna tabla que incluye las estaciones digitales que han comenzado a transmitir en digital.

La desinformación se agrava con el desinterés de las empresas para acelerar la transición. Televisa, por ejemplo, se había comprometido a transmitir en digital en las ciudades de Villahermosa, Mérida, Morelia, Uruapan, San Luis Potosí y Zacatecas, a partir del 15 de diciembre de 2009. En 2008 cambió de opinión y solicitó a la Cofetel modificar los títulos de concesión de las repetidoras del canal 2 en cinco de esas plazas y del canal 5 en dos, para comenzar sus transmisiones digitales en diciembre de 2015 en San Luis Potosí, Zacatecas y Morelia; en 2012 en Villahermosa y hasta ¡2018! en Uruapan. Esto significa un retraso de entre seis y nueve años a los plazos convenidos con el gobierno originalmente.

Según la Cofetel, hay 63 canales en el país que ya transmiten en digital. De éstos, 45 corresponden a las ciudades correspondientes al primer periodo, de 2004 a 2006, considerado en el acuerdo de política de tv digital: DF, Monterrey, Guadalajara, Tijuana, Mexicali, Ciudad Juárez, Nuevo Laredo, Matamoros y Reynosa.

El resto de los canales están en Toluca, Perote, Puebla, Querétaro, Sabinas Hidalgo, León, Cerro Culiacán, Torreón, Hidalgo del Parral y Durango. Con base en el acuerdo referido, el segundo periodo debió cubrir entre 2006 y 2009 las ciudades con más de un millón y medio de habitantes. Según el INEGI sólo tres ciudades entran en ese criterio: Puebla, Toluca y León, además de Tijuana, ya considerada en el primer periodo. Esto significa que se han superado las coberturas muy fácilmente, porque de origen las metas fueron muy poco ambiciosas.

Tv Azteca es la empresa que más ha puesto en operación canales digitales, incluso adelantándose a los periodos establecidos en el acuerdo, mientras que Televisa ha optado por ajustarse al calendario oficial y, si nos basamos en el listado, ha incumplido con la obligación de tener presencia digital en Toluca y Puebla. Debemos reconocer también que el lanzamiento de HiTV, de la televisora del Ajusco, colocó el tema de la TDT en el nivel de importancia, que siempre debió tener.

Buenas noticias. Como “uamero” me siento muy contento por la decisión de la Cofetel de aprobar que la Universidad Autónoma Metropolitana (UAM) tenga su propia estación de radio. El canal asignado es el 94.1 de FM. Aunque será de baja potencia, la llegada de la digitalización permitirá que la estación pueda ser escuchada en toda la capital del país… Héctor Villarreal será el nuevo subsecretario de Normatividad de Medios en la Segob. Su sensibilidad sobre la necesidad de actualizar el marco jurídico de los medios y su experiencia en el sector abonarán en este tema.

Profesor e investigador de la UAM Xochimilco.
Columnista del noticiario Pulso de la mañana
y coordinador del Consejo Editorial de la Revista Mexicana de Comunicación.

El siguiente es un ejemplo de cómo debe citar el anterior artículo:

Sosa Plata, Gabriel, “Tv digital en México: desinterés y opacidad”
en Revista Mexicana de Comunicación. Disponible en:

http://www.mexicanadecomunicacion.com.mx/sosa.htm

Fecha de consulta: México, 29–enero–2010

Periodismo analógico frente a periodismo digital

Necesaria la especialización en la producción de nuevos contenidos


José Luis Esquivel
Coordinador de la Academia de Periodismo de la Facultad de Ciencias
de la Comunicación, de la Universidad Autónoma de Nuevo León.

Este texto forma parte de la introducción de un libro que el
autor regiomontano tiene en preparación y que próximamente
verá la luz en la casa editorial de la Universidad Autónoma de Nuevo León.

La noticia es un bien de consumo desde que el ser humano se interesó por las “novedades”. Por eso al periodista se le considera un ser para la noticia. Sin embargo, muchos —muchísimos— siglos antes de que el periodismo la convirtiera en su centro neurálgico, los primeros pobladores de la tierra ya entendían su significado y se valían de ella para enterar a sus interlocutores de todo lo que ignoraban, pero era interesante e importante para su comunidad.

Decía en broma el gran periodista Manuel Buendía que el periodismo es la segunda profesión más antigua de la humanidad, porque, seguramente, en la lejanía de los siglos, alguien hizo algo y ahí estaba el primer chismoso para contárselo a todos.

Puede que haya sido un hombre de las cavernas contándole a otro el ataque de un dinosaurio.

“No tenía título de periodista”, señalaba Buendía, “pero no hay ninguna diferencia con los que hoy recogen lo que sucede en el mundo y lo trasmiten a través de la prensa, la radio o la televisión (y ahora internet)”.

La noticia es consustancial al ser humano. Siempre ha estado ahí. Ha ido con él, va con él e irá con él por los siglos de los siglos. Es una necesidad que se expresa en preguntas cotidianas como: “¿Qué hay de nuevo?”, “¿Te has enterado?”, ¿No sabes la última?”, “¿Qué novedades tienes?”…

Lo nuevo y no lo viejo es lo que todos queremos saber. Por eso el periodismo consagró como materia prima a la noticia. Y ésta dejó de ser privada y personal cuando pasó a ser pública y luego publicada en la prensa. Es ahí donde alcanza su sello periodístico: en su difusión a través de los medios masivos. De ahí que con el paso de los años y el triunfo de los ideales libertarios incubados en Inglaterra y expresados en la lucha por la independencia de Estados Unidos en 1776 y la Revolución Francesa en 1789, el periodista —mensajero de las novedades y crítico del poder— fue investido como profesional legitimado por una especie de delegación de la sociedad para el cumplimiento de un derecho colectivo de la comunidad política: el derecho a recibir una información técnicamente correcta.

Cuando apareció la prensa de masas en 1833, convirtió la noticia en apetecible mercancía. Después el periodismo ha aprovechado todos los inventos de cada época para responder cuanto antes a esas preguntas inquietantes del público acicateado por la novedad. Y surgió la urgencia de establecer uno y otro plan académico de formación entre los periodistas hasta alcanzar el grado universitario desde 1908 en Estados Unidos.

A partir de la década de 1920, cuando la radio se dio cuenta de su poder de audiencia y del valor de la novedad, la explotó a placer ganándole a la prensa la actualidad, pero al consolidarse la televisión desde 1950 como la reina de los medios, ha hecho de las noticias una cobertura instantánea y de los periodistas verdaderos showman’s, con tal de ofrecer un suculento platillo de receptores a la publicidad y a la propaganda, con la consiguiente ganancia millonaria de dólares.

Como afirma el profesor español José Luis Martínez Albertos, el periodista es un ser para la noticia, porque alcanza los objetivos públicos encomendados por la sociedad únicamente por medio del cultivo y elaboración de ese producto cultural llamado noticia. Sin la noticia no existe derecho a la información, ni libertad de prensa ni periodistas. Y el prestigiado académico la define así:

Noticia es un hecho verdadero, inédito o actual, de interés general, que se comunica a un público que puede considerarse masivo, una vez que ha sido recogido, interpretado y valorado por los sujetos promotores que controlan el medio utilizado para su difusión.

Pero llegaron las tecnologías de punta, y la noción de noticia se ha ido transformando en la última parte de la definición de Martínez Albertos. Nuevas herramientas auxiliaron a los periodistas en su oficio/profesión desde diciembre de 1982 al surgir arpanet y el primer servidor en 1991, pero sobre todo cuando Macintosh lanzó la 128K, en 1984, con que Apple Computer revolucionó la industria a nivel mundial al acreditar el uso del “ratón” y la ejecución de comandos en la pantalla a través de ventanas, lo que obligó a otros desarrolladores —Microsoft, principalmente— a apresurar el paso para mantener la competitividad en el mercado, en beneficio de los usuarios.

Sin embargo, después de la aparición de internet en 1993, convirtiéndose en medio de prensa a través de Nescape 1.0 en diciembre de 1994, el primer navegador puso en órbita a los usuarios y abrió nuevos canales que han modificado poco a poco el panorama informativo como sucedió en 2008 cuando Macintosh comercializó el IPhoneG3.

Con la aparición de internet, diarios como The Chicago Tribune y San José Mercury Center empezaron a reproducir en 1992 y 1993, respectivamente, sus páginas en American On Line (AOL), y el segundo inició en 1995 la edición específica para la red de redes, hasta que el alud de herramientas de lo más sofisticado no sólo logró que se cumpliera la profecía de la “aldea global” predicha por Marshall McLuhan en 1966, sino que nos trajo la personalización de los contenidos y la interactividad, además de dotar a la noticia de inmediatez y ha hecho que ésta haya dejado de ser patrimonio exclusivo de los informadores profesionales, pasando instantáneamente también a los llamados Information Providers (IP) —“proveedores de información”—, pero sobre todo dio lugar de pronto al “periodismo ciudadano” y a la pérdida de lectores en la prensa de papel, que poco a poco irá sucumbiendo por ser su producción enormemente costosa y la configuración de la lectura en el cerebro de las nuevas generaciones.

Por eso el dueño de Grupo Carso en México, Carlos Slim Helú, dijo un día que “internet es tan o más importante que el descubrimiento del alfabeto en la antigüedad”. Y tan es cierto, que ahora cualquiera que tenga acceso a este moderno medio de comunicación puede llegar tan lejos como quiera en el campo del conocimiento, las noticias y la creación de sitios.

El affaire entre el entonces presidente estadounidense Bill Clinton y la becaria Mónica Lewinsky fue conocido primero por The New York Times y The Washington Post aunque su decisión inicial fue no involucrarse hasta que fueron arrastrados por un modesto medio digital, Drudge Report, del periodista Matt Drudge, y la noticia se disparó por todo el planeta en 1998.

Otros ejemplos claros los tenemos en el uso efectivo de internet por parte de Barack Obama durante su campaña electoral por la silla presidencial en Estados Unidos el 4 de noviembre de 2008. Su equipo de trabajo unió aplicaciones de redes sociales bajo el estandarte de un movimiento y creó una fuerza imprevista para recaudar dinero, organizarse a nivel local, combatir las campañas de desprestigio y movilizar los votos que contribuyó a derribar la maquinaria de Hillary Clinton y más tarde de John McCain y los republicanos. Todavía el 6 de noviembre de 2008 Obama lanzó un nuevo sitio de internet: chang.gov. “Comparte tu historia y tus ideas”, indica ahí. “Participa en traer un cambio positiva y perdurable a este país”.

También la noticia del atentado el 30 de octubre de 2008 en la universidad de Navarra, en Pamplona, España, con un coche-bomba, nos reveló en qué medida las herramientas más sofisticadas de la comunicación moderna sirvieron para difundir el hecho desde las propias instalaciones por parte de los mismos alumnos al impedir las autoridades el paso al sitio de la noticia a los profesionales de los medios, por disposiciones legales, pues se trató de un acto terrorista de la banda separatista ETA.

Periodismo ciudadano

De acuerdo con críticos europeos como José Luis Martínez Albertos y otros académicos, los “proveedores de información o de contenidos” no tienen la función precisa de producir noticias sino proveen bases de datos o cuadros estadísticos. Para este profesor español la información técnicamente correcta tiene lugar cuando el mensaje cumple, acumulativamente, tres condiciones: es una noticia debidamente deslindada, rigurosamente verificada y adecuadamente contextualizada, lo que marca el compendio de normas deontológicas inseparables del concepto clásico de periodismo, sobre todo en el deslinde de los hechos y las opiniones, entre relatos y comentarios y entre textos informativos y textos persuasivos.

Por eso él ve riesgoso considerar parte de la comunicación periodística a los “proveedores de información o de contenidos” —por su semejanza con la labor de los profesionales de la noticia—, cuando en realidad lo que están haciendo es aplastar al verdadero periodista, quien se dirige a un público eminentemente masivo y no tiene como objetivo primordial la self-communication, o sea, el consumo elitista y personalizado de mensajes exquisitos.

No obstante, el nuevo modelo de la comunicación noticiosa y la revolución de los géneros periodísticos han borrado la línea divisoria de los anglosajones que separaban los contenidos de textos cuyo fin es informar sobre los acontecimientos (stories) de aquellos cuya finalidad es orientar o persuadir (comments), al grado de establecer durante décadas que “los hechos son sagrados y las opiniones libres” (“Facts are sacre, comments are free”). Por eso es oportuno revirar hacia Alvin Toffler, quien en La Tercera Ola, advirtió muy claramente:

A medida que avanza la tercera ola, los medios de comunicación, lejos de extender su influencia, se ven de pronto obligados a compartirla. Están siendo derrotados en muchos frentes a la vez, por lo que yo llamo los medios de comunicación desmasificados.

En efecto, la realidad actual nos dibuja un panorama avasallador del “periodismo ciudadano”, con la noticia como centro, pues la incorporación de avanzadas tecnologías a la red de redes ha propiciado el desarrollo acelerado de los blogs de nueva generación (2.0) y las modernas redes sociales que hacen más atractivas y contundentes muchas transmisiones de novedades, por lo cual no puede negarse que dichas bitácoras representan el corazón mismo de la web.

Para hacerse escuchar y ver, las masas llegaron a acercarse un poco al periodismo de los profesionales de la noticia cuando eran entrevistadas por éstos al momento de tener un dato trascendental para la sociedad, y tuvieron más acceso cuando podían pasar reportes a las salas de redacción de los medios acerca de sucesos con ciertos factores de valoración noticiosa. Las llamadas telefónicas a programas de radio y a varios de la TV han sido muy significativas en la atención a la audiencia. Pero siempre está la barrera de la discriminación y criba de las informaciones por parte de los dueños, jefes o editores. De ahí nació la figura del gatekeeper, tan estudiada por la Sociología en la Producción de Mensajes.

La interactividad, al quedar consumada por el aprovechamiento de las nuevas tecnologías, ha hecho posible la bidireccionalidad de los mensajes y ha permitido que los teléfonos celulares o móviles enlacen a verdaderos desconocidos en la transmisión de mensajes con alto grado de novedad, como ocurrió en marzo de 2004 en España, tras los atentados dinamiteros del día 11 en la estación de trenes Atocha y otros sitios de esa importante capital europea. En vísperas de las elecciones, los medios masivos fueron rebasados y las declaraciones oficiales chocaron con las versiones callejeras que viajaron con rapidez por los aparatos telefónicos de mano.


Primeros blogs

Tim Berners-Lee, el creador de la web, desde enero de 1992 registraba la evolución de su proyecto en el sitio What’s New in ’92, el cual ha sido considerado como el primer blog por algunos especialistas, entre los que destaca Dave Winer, citado por el destacado bloguero argentino José Luis Orihuela, quien señala que el término weblog fue propuesto por Jorn Barrer en el sitio Robot Wisdom, en diciembre de 1997, según el más acreditado investigador mexicano en este campo, Octavio Islas.

En 1998, el número de blogs apenas llegaba a 20, pero con la incorporación de las primeras herramientas gratuitas para la edición y publicación de blogs, a mediados de 1999, se disparó la llamada blogsfera, que vio los primeros blogs en español en octubre de 1999: Bitácora Tremendo y Subte. Por eso el año 2008 marcó un récord impresionante de 97 millones de blogs en el mundo —con la creación de dos blogs nuevos cada segundo—, a pesar de presagiarse a fines de ese mismo año su fin por el paso avasallador de las redes sociales que, sin estar concebidas para la función informativa, han sido el conducto preferido por el “periodismo ciudadano”.

Facebook, desde junio de 2005, ha sido el más claro ejemplo de lo que representa esta apertura para la prensa en línea.

Como bien señalan muchos especialistas y el sitio norteamericano www.stateofthenewsmedia.org/2008, con la fuerza del “periodismo ciudadano” estamos ante una transformación histórica que pinta otro rostro a las noticias y está tocando la puerta a nuevas formas de participación civil.

En la guerra de Kosovo de 1999, en la antigua Yugoslavia, y en otras zonas de conflicto como en Iraq desde 2003, o en Cuba y China hoy día, han sido los inquietos internautas —cuando han podido transmitir noticias in situ, en “vivo y a todo color”—, los que han retratado la realidad tal cual, con todo y que al tener acceso cualquier persona, se filtran mentiras monstruosas o bien se transmiten imágenes execrables como ocurrió con el ahorcamiento del dictador Saddam Hussein, no obstante ser reprobada contundentemente su difusión por las autoridades del país árabe y por los profesores de ética en todo el mundo.

El “periodismo ciudadano” es ya imparable. Y no hay quien impida su proliferación. De hecho, fue muy famoso el caso del periodista profesional Kevin Sites, corresponsal de guerra de la CNN estadounidense en Iraq, pues por presiones de la empresa televisora en marzo de 2003 debió suspender su blog, y luego en octubre lo reanudó ante la avalancha de correos electrónicos solidarios de otros blogueros.

No cabe duda que nos encontramos ante un cambio radical, ante un enfoque distinto de la vida en toda su dimensión y amplitud. Y lo que es más grave, sin tiempo de asimilar los nuevos conceptos, las nuevas potencialidades que varían en segundos.

Es increíble el vértigo al que estamos sometidos en los últimos años y, para comprobarlo, sólo basta comparar esta etapa con las de los anteriores descubrimientos tecnológicos que ayudaron al desarrollo del periodismo: a) la imprenta de tipos movibles que dio a conocer Gutenberg en 1441, tardó nada menos que cuatro siglos hasta poder ser utilizada de forma masiva en el siglo XIX; b) el teléfono acortó distancias y entre su invención por Alexander Graham Bell en 1876 y su llegada al gran público tras la Segunda Guerra Mundial, pasaron 70 años; c) el cine, que proyectó la primera película de un minuto en diciembre de 1895 en París, difirió hasta fines de la década de 1930 el invento de la cinta sonora; d) para la difusión masiva de la radio transcurrieron 40 años desde el invento de Guillermo Marconi en 1895; e) la televisión vio pasar 25 años entre su invento logrado por John Barid en 1925 y su difusión mundial en los años 1950 hasta popularizar la imagen a todo color en la década de 1960.

Internet, en cambio, desde su explosión en 1993 hasta ahora, llega ya a más de mil 500 millones de internautas.

La realidad es incontrovertible: la información en la web sigue creciendo. Informes del Centro de Políticas de Comunicación de la UCLA recogen como conclusión principal que más del 70 por ciento de los estadounidenses eligen la red como principal fuente de información, superando inclusive a la radio, la televisión y no diga la prensa.

Millones de personas hacen un simple click en sus aparatos para contactarse, entretenerse o comprar vía online. Y ni siquiera hay un mínimo respeto por el idioma, pues las nuevas generaciones han inventado sus propios códigos como los hombres primitivos que dejaban grabados sus mensajes en las cavernas con tal de que les entendieran sus intérpretes, como ahora: sin ortografía ni sintaxis y a veces sin palabras sino con modernos emoticones.

Lo más sorprendente es que cuando se hace “periodismo ciudadano” puede nutrir de imágenes también los espacios, y las minicámaras de video del tamaño de un botón de camisa para grabar escenas ayudan a reforzar el testimonio del relato, y ¡sin restricción alguna ni censura gubernamental posible!, aunque sí con muchos abusos por gente malintencionada que sube a You Tube toda clase de materiales sin ningún pudor.

México, a la zaga

El “periodismo ciudadano” ha motivado inclusive que los medios comerciales se apoyen en él para sus noticias en todo el mundo, como es el caso de algunos sitios en México, entre ellos, http://blogs.esmas.com/loretdemola/, para que el conductor y su equipo del noticiero matutino de Televisa no sólo sostengan un intercambio directo con los televidentes, sino para que el público también trabaje de inmediato y se conecte a http://enviayreporta.esmas.com/noticieros/ , pidiéndole a la gente que se transforme en un ejército de reporteros para que investiguen sobre diversos temas y manden imágenes que permitan armar historias periodísticas novedosas.

La respuesta no se ha hecho esperar a todo lo largo y ancho de la república mexicana donde se calcula que en 2009 hay más de 22 mil 600 bitácoras personales actualizadas en línea, mientras que el directorio blogsmexico.com incluye casi 11 mil. Ello a pesar de que el “periodismo ciudadano” puede considerarse marginal en México, por ocupar el último lugar en el uso de internet de banda ancha (3.5 por ciento) entre los 30 países de la Organización Para la Cooperación y el Desarrollo Económico (OCDE), debajo de Turquía (3.8) y Grecia, a los que superábamos hace dos años. Dinamarca y Holanda están en la cumbre con 31.9 y 31.8. (www.oecd.org./sti/ICTindicators).

De cualquier manera el avance de las nuevas tecnologías ha representado una alternativa valiosa para los internautas que ven, por ejemplo, cómo Jimmy Wales, fundador de Wikipedia, eliminó la noción de valor monetario en el mercado de las enciclopedias y dio lugar al modelo “de colaboración” en internet, y cómo Google es mucho más que una máquina de búsqueda.

Si, como afirma Thomas Friedman, la novedad es que ahora el mundo es plano, habría que decir que no hay un aplanadora más poderosa, hasta ahora, que la revolucionara caja de herramientas informáticas que ofrece esta empresa, símbolo de la galaxia de la información —toda la información, ordenada y al instante—-, contribuyendo en diez años a expandir el conocimiento, por encima de fronteras ideológicas, económicas, lingüísticas o raciales, como se dijo cuando fue galardonada en 2008 con el Premio “Príncipe de Asturias” de Comunicación y Humanidades, a pesar de las críticas por haberse doblegado ante las exigencias del gobierno de China con tal de entrar a ese país asiático.

Casi diez millones de páginas indexadas recibieron, en 2008, más de doscientos millones de consultas al día, con ingresos de 5 mil millones de dólares al año, lo que le da un valor de mercado a la empresa de 66 mil millones de dólares, cuando en realidad sus activos físicos no pasan de los 5 mil millones, gracias a la era de la información que está dejando fuera de contexto a las industrias prototipo del siglo pasado, que requieren una infraestructura mayúscula.

Las nuevas tecnologías ya están absorbiendo a los tradicionales lectores de papel y a los diarios como The Christian Science Monitor, de Boston que, a pesar de sus cien años en el mercado, a fines de 2008 decidió dejar de publicar su edición diaria, concentrándose en su audiencia en internet, y dejó sólo una versión tipo revista en papel los fines de semana.

Internacional Data Group también inició poco a poco desde 2007 su migración redituable a internet en vista de que sus ingresos por publicidad en la red rebasan sus ganancias en medios impresos que tratan temas de alta tecnología, con el beneplácito de sus anunciantes y lectores.

¿Fin del diarismo impreso?

Ante esas circunstancias, no es la primera vez que los pronósticos hablan fatalmente de la transformación de la prensa en la era internet, aunque otras voces, como la del español José Luis Martínez Albertos, se han atrevido a más, señalando “El ocaso del Periodismo”, como tituló a su obra a principios de siglo con la clara intención de atraer severas críticas al marcar el 2020 como el fin de la tarea de informar en papel.

Sin embargo, las voces catastrofistas podrían estrellarse con la realidad futura como sucedió desde la década de 1920 cuando muchos predecían la muerte de la prensa al aparecer la radio, e igualmente en la década de 1950 con el surgimiento asombroso de la televisión. Entretanto solamente vale dar curso a tan duros pronósticos al amanecer del 2009.

“Los periódicos en 2020” se llama uno de los últimos trabajos de Jeff Jarvis, prestigioso bloguero (buzzmachine.com) y profesor asociado, además de director del Programa de Periodismo Interactivo de la Universidad de la Ciudad de Nueva York, y para quien en el 2020:

Deberíamos desear que los periódicos ya no sean únicamente papel sino miembros valiosos de unas redes mayores que permitan a sus comunidades recopilar, compartir y dar sentido a las noticias que necesitan (…) La tecnología, lejos de ser una amenaza, puede convertir a los periódicos en algo nuevo y con un costo más bajo.

Al buscar respuesta a la pregunta ¿cómo serán los periódicos en 2020?, Jeff cita a Jeffrey Cole, del Centro para el Futuro Digital de la Escuela de Annenberg de la Universidad de Southern California, quien concluye de su última investigación sobre el uso de internet que los que tienen ahora entre 12 y 25 años —y que tendrán entre 25 y 38 en 2020— “nunca leerán un periódico”, aunque nunca es una palabra muy fuerte. Pero como bien predijo Phil Meyer en su libro The vanishing newspaper (El periódico que desaparece), si la tendencia actual continúa, el último periódico norteamericano se publicará en 2040.

Para Jeff, el periodismo como servicio, como proceso y principio organizado hará que las organizaciones de noticias sobrevivan, y para hacerlo se debe explotar la eficacia de la herramientas de internet, que han posibilitado la nueva estructura de las noticias en la era del enlace. Javis, al respecto opina:

El enlace es la llave de nuestra supervivencia y prosperidad en el futuro (…) como sucede ahora con Google que nos ha dado el mejor regalo de agregar y enlazar nuestro contenidos, pues sin su contribución como nuevo soporte de noticias, los periódicos digitales habrían muerto.

Y finalmente Jarvis concluye que la amenaza de Google y otros motores de búsqueda está en la publicidad, por lo cual los periódicos de hoy deben preocuparse en buscar nuevas redes de anuncios y vender lo mejor que existe tanto dentro como fuera de los muros de la prensa y páginas web.

También Paul Bradshaw, al hablar de “un modelo para la redacción del siglo XXI”, señala la urgencia de “replantear la elaboración de periódicos”, proponiendo una serie de cuadros sobre el proceso informativo, la obtención de noticias, la interactividad y modelos empresariales.

El reto académico

El reto académico en la enseñanza y práctica del periodismo requiere seguir atentos desde las aulas al desarrollo tecnológico y a sacarle jugo a la web 3.0 —bautizada desde ya como la red semántica— que se apresta a dar el control a los usuarios a través de la digitalización con aplicaciones de uso combinadas y simples, para no sólo buscar y encontrar, sino aprovechar la información, pues es una simulación total de la vida real, cual sucede en sitios como Second Life; la vida real y virtual convergen, son redes sociales pero con más ventajas tecnológicas: presentaciones multimedia y contenido en tiempo real.

Y si la web 2.0 está impulsada por las contribuciones de todos, los expertos pronostican que la 3.0 llegará cuando todo mundo tenga 10 megabits de ancho de banda y esté en los televisores, celulares, automóviles y otros aparatos caseros, pues contará con inteligencia artificial para combinar y manipular la información para dictar significados (de ahí su etiqueta de “semántica”). De modo que si la web 2.0 puede dar datos, la red 3.0 podrá dar soluciones.

Sin embargo, hay que entender que el periodista seguirá siendo el profesional que es capaz de unir y reunir esfuerzos para ofrecer a su público un producto coherente en sí mismo, de actualidad, y donde la noticia —la noticia fresca y bien contextualizada— impere por encima de conveniencias técnicas, de diseño o de edición, pues si bien es cierto puede desaparecer un día el periódico de papel, el periodismo no morirá, porque la información es una necesidad consustancial del ser humano.

Es cierto que ante las nuevas formas de hacer periodismo, hay que adaptar los contenidos y su tratamiento a la realidad circundante para no quedarse en un modelo anquilosado. Sí, siempre y cuando la estrategia no vaya dirigida más al proceso productivo que al producto informativo.

Además, es necesario entender en plena era digital la evolución de los géneros periodísticos por los nuevos hábitos de lectura de los destinatarios de las noticias actualmente, dado que la dependencia de los recursos electrónicos ha hecho inclusive que muchas personas sufran lo que los especialistas llaman el SUPR: Síndrome del Uso Patológico de la Red

Quienes estamos en la docencia reconocemos las características de la sociedad contemporánea que Giovanni Sartori ha reflejado en el Homo Videns. La Sociedad Teledirigida, donde queda clara la preeminencia de la cultura audiovisual. Por tanto, estudiantes que ahora cuentan con 23 años y están en las universidades tienen hábitos mentales muy distintos a los de las generaciones anteriores, porque si nacieron a mediados de los años 80 quiere decir que crecieron ya con la pantalla de un monitor enfrente, por lo cual forman la generación que Don Tapscott identifica como “cyber” o Net generation (generación N, en alusión a la presencia e influencia de las redes), y que Marc Prensy denomina “digital natives”.

El investigador norteamericano llama “inmigrant natives” a los mayores de 30 años, o los más viejos que entramos en contacto con las nuevas tecnologías por necesidad o por afición, pero no nacimos utilizando la computadora, internet, teléfonos celulares y el MP3 o el IphoneG3.

La facilidad que tienen los nativos para todo lo que ya estaba ahí cuando nacieron (incluido el lenguaje o la religión), contrasta con la urgencia de los inmigrantes por adaptarse y asimilar lo que no vivieron antes, y por lo tanto los dos grupos lo viven de distinta manera.

De esta forma, tenemos que aceptar que las nuevas generaciones están más hechas para los textos cortos que aparecen en la red porque, si nos apegamos al apotegma de Marshall McLuhan en la década de 1960 “el medio es el mensaje”, entonces hay que concluir que internet no sólo es un canal pasivo de información sino que, como los otros medios, nos provee de material para nuestros pensamientos pero al mismo tiempo ha reconfigurado de otra manera nuestros pensamientos. Y entre más usamos la red más esfuerzos hay que hacer para leer textos largos, libros o artículos, excepto que estén elaborados con el toque del profesional de la noticia que, en un reportaje, logre atrapar desde el principio a su público.

Es la realidad que estamos viviendo no en una época de cambios sino en un auténtico cambio de época donde las innovaciones del ciberperiodismo afectan a todas las dimensiones del periodismo: sus procesos tecnológicos de producción, sus lenguajes, mensajes y discursos; las formas de recepción y uso; las rutinas profesionales; y, en definitiva, toda la cultura periodística y comunicativa.

De ahí que es necesario especializarse en la producción de nuevos contenidos y en el manejo del reportaje como género de géneros que será la salvación de la prensa, por la valentía y capacidad de los investigadores y por su profundidad de análisis, frente a la acometida de la instantaneidad de la noticia en la red y el bombardeo de blogs informativos como ganchos al hígado cada minuto o cada segundo.

La prensa seguirá viviendo mientras el papel siga alimentando el diario personalizado de noticias con materiales que exploren en profundidad el significado de los acontecimientos noticiosos, como ocurre hoy mismo en que la gente compra los periódicos tradicionales y las revistas para leer con más detenimiento y fruición aquello que le dan superficialmente los flashes informativos de los medios electrónicos. Siempre habrá lectores que superen la precariedad de los textos cortos en intrernet en busca de materiales impresos que abunden en los detalles ocultos de las noticias trascendentes.

De acuerdo con Lorenzo Gomis el periodismo interpreta la realidad social para que la gente pueda entenderla, adaptarse a ella y modificarla. Pero nosotros añadimos que no es a base de noticias a granel o con el flujo incesante de datos duros como se logra tal propósito, sino tirándose un clavado en las aguas profundas de esa realidad para dar con las sorpresas ocultas que no se ven en la superficie.

Por eso concluimos que en periodismo la crónica es la reina de los géneros por su delicadeza literaria y la brillantez del cronista, mientras que el reportaje es el rey por la intrepidez del reportero en su trabajo cuyo vigor intrínseco es vital en el tratamiento de las noticias que tienen un trasfondo y requieren contextualizar los hechos. Y por más que el “periodismo ciudadano” lo intente, corresponderá a los profesionales de los medios salir adelante con banderas desplegadas en esta especialización informativa.

El siguiente es un ejemplo de cómo debe de citar este artículo:

Hernández, José Luis, 2008: “Periodismo analógico frente a periodismo digital”,
en Revista Mexicana de Comunicación en línea, Num. 113, México, octubre. Disponible en:
http://www.mexicanadecomunicacion.com.mx/Tables/rmxc/analogocontradigital.htm
Fecha de consulta: 5 de diciembre de 2008.

Televisión de alta definición

Cambios generacionales

El gran frente de expansión de la alta definición se halla en la eficiencia de los satélites para cubrir todos los ámbitos. Es el sistema que proporciona mayor ancho de banda para la difusión de cualquier contenido por mucha complejidad que tenga y una alta velocidad para las descargas y para las subidas.

Mariano Cebrián Herreros

La alta definición, conocida internacionalmente por las siglas HDTV (High Definition Television), recobra su impulso, tras los fallidos lanzamientos en analógico de finales de la década de los ochenta y comienzos de los noventa. Ahora se da el salto a lo digital. La primera etapa tuvo su cima en los Juegos Olímpicos de Barcelona y en la Expo de Sevilla de 1992. A partir de aquel año fue decayendo tanto en el sistema japonés como en el europeo. Estados Unidos, que había guardado un silencio sospechoso hasta aquel momento, irrumpió con la alta definición digital y obligó a los demás países a reorientarse también a lo digital.

La alta definición requiere cumplir los estándares de homologación establecidos por la Unión Internacional de Telecomunicaciones (norma ITU): formato de píxel cuadrado en lugar de rectangular, proporcionalidad de 16:9 o panorámico, colorimetría con la norma ITU-R BT709 y otras normas técnicas. Para comprobar estos requisitos, la Unión Europea exige, además, el sello HD Ready, o certificación de la Asociación de la Industria Europea para el Desarrollo de las Tecnologías de la Información y de la Comunicación para la compatibilidad de equipos y visualización en toda la Unión. Se trata de una calidad en torno a unas cinco veces mayor que la de la actual definición, aunque depende también de los formatos de imágenes según el número de píxeles.

Europa se ha lanzado totalmente a esa tecnología para incorporarla al cable, al ADSL, al satélite y a las ondas hertzianas. Los cuatro sistemas entran en plena competencia para incluir la alta definición en sus ofertas y posicionarse con fortaleza en la conquista de abonados y usuarios. Cada uno de ellos tiene sus ventajas y sus dificultades. El cable cuenta con una capacidad plena para el ancho de banda necesario y la interactividad por la misma red, pero su cobertura es débil, ya que se ciñe sólo a las grandes concentraciones de población. El ADSL y sus variantes también disponen de la interactividad y de un ancho de banda amplio, pero no están muy extendidos y sólo aportan la alta definición en algunos tramos de la red. La televisión digital terrestre es la que lleva mayor retraso debido al reducido ancho de banda con que trabaja y deberá esperar al apagón analógico para ampliarlo; la interactividad debe desarrollarla por otro sistema de cableado. El satélite alcanza coberturas extensas, una enorme capacidad de canales y una calidad elevada de imagen, aunque para desarrollar la interactividad debe emplear también las redes de cable.

El gran frente de expansión de la alta definición se halla precisamente en la eficiencia de los satélites para cubrir todos los ámbitos: mundial, continentales, regionales y nacionales. Es el sistema que proporciona mayor ancho de banda para la difusión de cualquier contenido por mucha complejidad que tenga y una alta velocidad para las descargas y para las subidas.  La digitalización de la señal trabaja con la codificación MPEG 4.

Según la tabla de frecuencias publicada bimestralmente por la revista HDTV Alta Definición (http://www.alta-definicion.net), en Europa pueden captarse, además de varios centenares en definición normal, 13 satélites de HD: Sirius 2, con dos canales desde Bélgica; Eutelsat W3a, con tres canales desde Bélgica y uno desde Luxemburgo; Hot Bird con 9 canales desde Francia, cuatro desde Italia, dos desde Polonia y uno desde Reino Unido; Astra, con siete canales desde Alemania, cinco desde Francia y tres desde Luxemburgo; Astra 2, con 13 canales todos desde Gran Bretaña: uno para la BBC y el resto para Sky Digital; Astra 3, con cinco canales desde Bélgica y uno desde Luxemburgo; Badr 3, con uno canal desde Luxemburgo; Express AM, con uno canal desde Bélgica; Türksat 1C, con dos canales desde Turquía; Intelsat 12, con un canal desde Reino Unido; Thor 2/3, con siete canales desde Suecia; Atlantic Bird, con un canal desde Francia; e Hispasat, con dos canales desde España. Son unas redes satelitales que aportan 71 canales en total en Europa. Según la revista Screen Digest, para 2010 habrá unos 250 canales de HDTV en todo el mundo, de los cuales 120 serán europeos. Esto es sólo el inicio, ya que todos los proyectos de futuros satélites incorporan varios canales en alta definición.

Sin embargo, su penetración en la sociedad requiere un proceso gradual de tiempo para que los operadores y la industria de antenas, módems y televisores puedan responder. Para su implantación se requiere, sobre todo, que los consumidores aprecien la aportación y las mejoras del sistema frente a la televisión convencional y que la relación costo-beneficios, se ajuste a su capacidad de gastos y satisfacciones. La entrega a la nueva modalidad televisiva obliga a costear la compra de una nueva antena, de un módem y del televisor, todavía a unos precios muy elevados para la mayoría de las economías domésticas de cualquier país. Los fabricantes deberán impulsar su producción hasta llegar a una industrialización total a precios asequibles. También en este caso se reproduce otra brecha entre los países más desarrollados y los menos desarrollados y, dentro de ellos, entre las clases sociales según su potencial económico.

Los satélites incrementan el número de canales de alta definición, tanto en las modalidades de pago como en las de señal libre. Pero por encima de la tecnología están los contenidos y los tratamientos que se ofrezcan a los usuarios. Sin estos no hay implantación posible. Aparecen canales generalistas y en mayor cantidad canales diversificados por temas específicos. La exigencia de alta definición obliga a producir nuevos contenidos, ya que los de la televisión tradicional dejan mucho que desear y prácticamente son inservibles, salvo los de producción cinematográfica. De ahí que la inmensa mayoría de los canales de HDTV se cubran con películas, incluso las de blanco y negro, ya que presentan una calidad suficientemente válida.

Se mantienen las líneas de especialización de las plataformas tradicionales: canales de cine, deportes,  entretenimiento, documentales, infantiles, musicales y campos especializados como moda, motor, cultura. Pero, ¿hay contenidos diferentes a los de la definición normal o específicos de la HDTV? Una cuestión es que la HDTV requiera otras exigencias en la producción y, por tanto, también la transformación de todos los equipos y procesos de elaboración, y otra que se produzcan contenidos diferentes. Las experiencias desarrolladas señalan que, salvo algunas excepciones plasmadas en algunos programas y videojuegos de reducida duración, hay pocos contenidos originales, y no se experimenta la creación de otros nuevos.

El cine, a medida que aumentó los formatos e incorporó diversas aportaciones sonoras, fue creando obras imaginadas y producidas de manera específica para ellos. No tiene sentido disponer de televisión de alta definición y ofrecer contenidos que no alcancen este nivel. Tal adecuación se plantea tanto en la originalidad del tema como en la configuración de la producción y la realización. La fuerza de los contenidos de alta definición proviene de su espectacularización por la calidad de las imágenes, la grandiosidad de las pantallas y la planificación y narrativa. Éste es el reto inmediato de todas las productoras.

La televisión convencional trabaja con televisores de pantalla muy inferior a la del cine. Psicológicamente, el telespectador se ve superior al tamaño de las figuras que aparecen en la pantalla, a diferencia de lo que sucede en el cine, donde el espectador se encuentra disminuido ante la pantalla gigantesca. Será difícil, por no decir imposible, que los televisores domésticos de alta definición tengan un tamaño similar al de las pantallas cinematográficas y, por tanto, la televisión siempre estará en inferioridad de espectáculo. Sin embargo, frente a la televisión tradicional, la de alta definición también aporta su espectáculo singular; existen diseños para que las pantallas ocupen una pared amplia del salón, el cual se transforma en una minisala de cine. Las figuras cobran un tamaño superior al del telespectador, y por ello más subyugantes e hipnotizadoras, aunque a cambio del silencio de la sala de cine, en los hogares persistirán los ruidos y distracciones de ambiente. Es lo que seguirá marcando las diferencias entre el cine y la televisión por muy de alta definición que sea.

Ya no se trata sólo de que la alta definición requiera la renovación de equipos técnicos, sino también innovaciones en la creación, en el planteamiento de la producción y en la búsqueda de otras modalidades de tratamientos audiovisuales y multimedia. En suma, hablamos de una transformación de los profesionales implicados en tales procesos, lo cual reclama cambios de mentalidad y, con frecuencia, cambios generacionales. Es una situación compleja que no debe quedarse en el embelesamiento de la tecnología, sino que debe llevar al fortalecimiento de los recursos económicos, a replanteamientos en la formación y a la ampliación de los campos y objetos de investigación.

Catedrático de la Universidad Complutense de Madrid

Correo electrónico: marceb@ccinf.ucm.es