wyfhdl
我也想尝试下rweibo,请问下 你是在R版本2.10.1和JDK1.6的环境下操作成功的吗,因为我的R版本为2.15.2 它提示我无法使用rJava;能提供下邮箱么,这样交流起来方便些
bigknife
[未知用户] 我猜可能是你电脑上没安装java吧。
wyfhdl
[未知用户] 说的是JER么。。。
carlsophia
看来对于我们学传播学的帮助很大
rafferty
res <- web.search.content("泰囧", page = 50, sleepmean = 10,
sleepsd = 1)$Weibo
求助:用这一句搜索内容的时候速度非常非常慢,page=1都要好几分钟才能打开,怎么回事
bigknife
[未知用户] 这个应该和网络状况有关吧我觉得。有多慢呢?page=1的情况下大概花了多长时间?
tato27
> res <- web.search.content("泰囧", page = 10, sleepmean = 10,sleepsd = 1)$Weibo
错误于fromJSON(weibojson) :
CHAR() can only be applied to a 'CHARSXP', not a 'NULL'
bigknife
[未知用户] 这个问题遇到多次了,换个机器试试
wyfhdl
Rweibo已经抓取成功,res内也包括了我想要的内容,但是在Rwordseg 使用的你的代码处理的时候最终结果都是字和每个字的freq,求指导啊!!但是我在
> require(Rwordseg)
> segmentCN("钓鱼岛是中国的,苍井空是大家的")
[1] "钓鱼岛" "是" "中国" "的" "苍井空" "是" "大家" "的"
这样是没问题的,我对字符型数据的处理似乎有点问题
Drewry
你好!我在使用words=unlist(lapply(X=res, FUN=segmentCN))之后,words得到的是乱码(感觉像是把中文编码给拆开来了),请问有解决方法吗?
另外,如果楼主方便的话,是否能在编码后面添加简单的注释?谢谢
Drewry
LZ辛苦了。请问个问题,我使用words=unlist(lapply(X=res, FUN=segmentCN))之后,得到的结果是乱码(感觉像是中文编码被拆分开来了),请问应该如何解决?
bigknife
[未知用户] 趴下来的数据本身是正常的吗?还是说分词以后变成乱码了?
Drewry
[未知用户] 趴下来的数据是正常的,如果直接用segmentCN对趴下来的数据进行分词也是正常的。但是如果用words=unlist(lapply(X=res2, FUN=segmentCN))对数据进行分词,就不正常了。
bigknife
[未知用户] 这个问题就不太清楚了,莫非和lapply有关吗?搭车看看有没有高人出来解答一下吧
miandai
今天试了一天Rweibo,但在授权网页老是出现redirect_uri_mismatch错误,原来是注册授权时少个步骤,解决步骤可查看
http://qqy620.diandian.com/post/2012-09-20/40039410248
bigknife
[未知用户] 感谢分享
causu
[未知用户] 呃。也碰到这个问题,看你的网页也是一头雾水啊
Tindo
感谢分享,学习了
arieljiang
您好,我时华师统计研二,可否交个朋友?曾在医院实习一年,现在在电子商务公司实习,比较感兴趣的领域: 社交网络数据分析,统计可视化,序贯,纵向数据分析。
arieljiang
今天在运行:
roauth <- createOAuth(app_name = "R微博数据分析", access_name = "秋恋sunshine",forcelogin = TRUE)后弹出网页显示输入用户名和密码,但是之后网页就显示:已取消到该网页的导航。得不到授权的密码,这是为什么呢?