今天学习了4个小时 Python - 20231107

小林2023-11-07日记377

早上来公司看了 Open AI 年度开发者大会,AI 时代一日十年,在 AI 时代速度发展已经突破了摩尔定律,这样的速度太可怕了。

现在 AI 是可以自然语言编程的,我直接让 ChatGPT 给我生成代码,然后我本地运行不起来,我完全零基础,我在 B站找了个视频,用 2 倍速看了 2-3 个小时,把本地基本环境做好了。

接下来我跟 ChatGPT 对话,我要采集我自己的博客,我就直接问它

python 采集 AI

它回答完,我就直接复制代码,改改 Div 名称,成功了一半,内容可以采集了,但标题还是采集不出来,我期间自己尝试改,找百度、知乎、CSDN 等都没解决。最后我又接着问 ChatGPT,我问它,如何取指定 Div 中的内容,它告诉我了,我微调整了下,最后成功了。


Python 采集

最后成功了,可以成功采集到我自己博客的一篇内容。真的有一点点小成就感。

Python 采集

import requests
from bs4 import BeautifulSoup

# 要爬取的 Z-Blog 博客的 URL
url = 'https://guoxiaoli.com/post/520.html'  # 将 'example.com/blog-post' 替换为实际博客文章的网址

# 发送HTTP请求并获取页面内容
response = requests.get(url)
if response.status_code == 200:
    page_content = response.text
    soup = BeautifulSoup(page_content, 'html.parser')

    # 找到博客标题
    title = soup.find('div', class_='post')  # 根据实际网页结构和类名进行调整
    if title:
        print("博客标题:", title.find('h1').text)

    # 找到博客内容
    content = soup.find('div', class_='single')  # 根据实际网页结构和类名进行调整
    if content:
        print("博客内容:", content.get_text())
else:
    print("无法获取网页内容,状态码:", response.status_code)

我能采集一篇,我就可以采集全站,我能采集下来,我就能存到本地/线上的一个数据库中。

我能采集我的博客, 我就可以采集任何人/任何网页的内容了,我用几个小时学会了一项技能。

如果没 ChatGPT,我想我一天也学不会,因为在搜索引擎中搜几次找不到答案,我可能就会放弃。


ChatGPT,不是一个产品,它是一个标配,只要你会用它,人人都可以用自然语言编程,注意,不是未来可以,是现在就可以!

未来就不需要编程了,全部是个人助理,甚至不止一个。

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。