Obteber datos de paginas de internet.

Hector Barrios Molano hebm12 en gmail.com
Mar Jul 15 21:50:17 CEST 2008


Muchas gracias a todos por su ayuda, usé los módulos 'urllib2' y
'BeautifulSoup' y si me sirvieron.

El día 14 de julio de 2008 10:17, RadicalEd <willian.radicaled en gmail.com>
escribió:

> Yo lo hago con urllib2 y expresiones regulares, para alimentar una DB en
> MySQL
>
> 2008/7/14 Beni <camontuyu en yahoo.es>:
>
> > 2008/7/13 David García <nonamed en ya.com>:
> >
> > > Si es una pagina xhtml bien formada puedes usar xml.sax, xml.dom o
> > > ElementTree.
> > >
> > > Para una página html puedes usar sgmllib, heredas SGMLParser y creas
> las
> > > funciones miembro para parsear la tag donde se encuentran los datos que
> > > quieres.
> > >
> > >
> > > Hector Barrios Molano escribió:
> >
> >
> > Yo suelo leer la pagina web con mechanize y luego extraer la información
> > que
> > necesito mediante expresiones regulares. ¿que beneficio o diferencia se
> > obtiene de parsear la página web entera con un parser?
> >
> > Saludos.
> >
> > --
> > Benito Rodríguez Arcos
> >
> > _______________________________________________
> > Lista de correo Python-es
> > http://listas.aditel.org/listinfo/python-es
> > FAQ: http://listas.aditel.org/faqpyes
> >
>
>
>
> --
> The knowledge is the most dangerous
> weapon & SoloCodigo is the most important programing webforum.
> http://foros.solocodigo.com
> _______________________________________________
> Lista de correo Python-es
> http://listas.aditel.org/listinfo/python-es
> FAQ: http://listas.aditel.org/faqpyes
>
_______________________________________________
Lista de correo Python-es 
http://listas.aditel.org/listinfo/python-es
FAQ: http://listas.aditel.org/faqpyes





Más información sobre la lista de distribución Python-es