データとして4年、実質、15年ぐらいブログ書いてて思ったこと。

2018.05.19

Logging


このブログを始めて8年ぐらい経過しています。
4年間のデータは消失してしまったので、4年間のデータしか残っておりません。
8年前といえば、30歳ぐらいだった自分がもうすぐ40代へ
頭の中身は変わらず、40代になろうとしています(駄目だなこりゃw)。
ブログは負の遺産みたいなのだけど、負の遺産も含め自分の今があるので
一生続けるつもりでいますが、過去の記事を読み返すと誤字や文法が変だったりと
呆れるぐらいのブログです、、、。
ここ数ヶ月、週一更新でしたがコレから
記事の本数を若干増やすつもりでいます。PV数はまぁ150?200ぐらいです。
訪問者数はその半分より少し上の値です。
このブログ、皆様のお陰様で毎月のサーバ代金は支払えるようになりました。
有難う御座います。
ちなみにブログは24歳の頃から始めています。
始めは絵日記ブログを毎日書いていました、その当時は
ブログをしているひとの割合も少なかったので今以上のアクセス数がありました。
アニメ会社からの訪問者などもあったりして、ほくそ笑む事もありましたが
ある年の正月にアクセス数が急上昇してコレはやばいなという事で
閉鎖し次はWEBでグチグチ書いたブログを開設したところ、
案の定、会社バレしてしまいコレまた閉鎖。
もうその時からバレたらどうなるのかが、分かったので再度ブログを開設。
ある意味開き直りで今に至っていますが、どちらかと言えば辛口な記事が多いため
リアルではひとが離れていく一方です・・・が、
ネットでは逆に反比例しています。
リアルが本当の所、充実したいのですが
イマノトコロ、非充実です。
リアルを充実したければブログやSNSはしない方が良いですね。
個人がブログやSNSで発信する世の中ですが、リアルで得することはないです。

タグ

B01H6DIHTO, SNS, アクセス数, イケハヤ書房, イマノトコロ, お陰様, グチグチ, サーバ代金, データ, ひと, 一生続けるつもり, 意味開き直り, 若干増やすつもり, 訪問者, 誤字, , 週一, 遺産,

非公式土佐電つぶやきBOTが完成したが速攻ロックされた件。

2017.07.31

Logging


非公式土佐電つぶやきBOTが完成したが速攻ロックされた件だけど
正直な所、少し予想はしていました。
世の中、よく思わない人々がいることは確かなことです。
今回の非公式土佐電つぶやきBOTの制作経緯ですけど・・・
作ろうと構想をねってから5年ほど月日が流れていたモノなんですね。
何故、ここまで時間がかかったかというと土佐電交通の時刻表が簡単に
プログラムで抽出することが不可能なんです。
なので・・・。
当初は人力でデータを入れ込もうと考えていました。
これが一番、長引く原因になったわけです、データを登録しようと
何度も頑張ってみたのですが、情報量が多いので途中で挫折すること何度か。
結局これでは埒が明かないので、
他の方法を考えた結果、WEBストライピングするという事です。
要はサイトのデータ抽出することで解決したのですが、
公式ページはあんな感じなので、よくある電車検索サイトから
データ抽出してきました。
路面電車の時刻表を検索できるサイトを
探すのに手間がかかりましたが、抽出事態は、一日ぐらいで
コーディングする事で何とかなりました。
ちなみにある大手の検索できるサイトからデータを抽出しています。
今回、作って思ったことは
公式ページがPDFじゃなく電車の時刻表が検索でき時刻表が表示されるサイトを作ったら
良いのにと思いました。バスアプリは作っているのに・・・。
https://twitter.com/tosaden_net

{非公式}土佐電時刻表検索を始めました。
https://tosaden.net/

タグ

5, BOT, web, ここ, こと, これ, サイト, ストライピング, データ, プログラム, ページ, もの, ロック, わけ, 不可能, , , 予想, , 交通, 人々, 人力, 今回, , , 何度, 何度か, 何故, 公式, 制作, 原因, 土佐, , 完成, 少し, 当初, 情報, 感じ, , 抽出, 挫折, 方法, 時刻表, 時間, 月日, 検索, 構想, 正直, 登録, 簡単, 経緯, 結果, , 解決, 途中, 速攻, , 電車,

クローラーするサービスの基礎。

2016.11.19

Logging

クローラーするサービスの基礎のソースを載せときます。殆どサイボウズ・ラボの人が書いたコードです。
このサンプルソースをそのまま貼り付けても一階層のリンクしか取得できません。
再帰処理の部分をコメントアウトしているからです。ちなみにコメントアウトを外してもメモリオーバーでおそらく
大体のサーバでエラーが出力されます。どうしたら良いのかといえば、DBに1階層目のリンクデータ、2階層目のリンクデータという様に保存する機能を施す。次にajaxで階層を受け渡しながら、再帰処理を行う。
再帰処理が終わる要素はそれ以上、下階層がないことを判断する。そのためには保存したデータを検索することが重要になる。=(イコール)
新規にデータを登録しているうちは、再帰処理を終わらせないようにすることが大事になる。
これの機能を加えることで巡回する事が可能になる。ここで注意しないといけないのが、外部リンクを保存しないことです。外部リンクまで保存していると巡回は永遠に終わらないでしょう・・・。
トイウコトデ
ほぼ??コピペソースを貼っときます。

<?php
echo json_encode($obj);
exit;
function get_linkarray($link)
{
	$context = stream_context_create(array("http" => array("method" => "GET", "header" => "User-Agent: simplecrawler.library.php 0.0.1")));
	$resultR = array();
	$resultS = simplecrawler($context, $link, $link, parse_url($link));
	foreach ($resultS as $k => $v) {
		$resultR[] = $v;
	}
	return $resultR;
}
function simplecrawler($context, $link, $burl, $base, $linkArrayDat = array())
{
	$linkArrayPre = crawler_link(crawler_page($link, $burl, $base, $context), $link, parse_url($link));
	foreach ($linkArrayPre as $k => $v) {
		if (!isset($linkArrayDat[$v])) {
			$linkArrayDat[$v] = $v;
			//$linkArrayDat = array_merge($linkArrayDat, simplecrawler($context, $v, $burl, $base, $linkArrayDat));
		}
	}
	return $linkArrayDat;
}
function crawler_page($link, $burl, $base, $context)
{
	if (strpos($link, $burl) === 0) {
		$page = @file_get_contents($link, false, $context);
		return $page === FALSE ? null : $page;
	} else {
		return null;
	}
}
function crawler_link($page, $burl, $base)
{
	$linkArray = array();
	if ($page === null) {
		return $linkArray;
	}
	preg_match_all("/[\s\n\t]+href\s?=\s?”(.*?)”/i", $page, $href);
	for ($i = 0; $i < count($href[1]); $i++) {
		$link = $href[1][$i];
		if (preg_match("/^http(s)*\:\/\//", $link)) {
			$result = $link;
		} elseif (preg_match("/^\/.+$/", $link)) {
			$result = $base["scheme"] . "://" . $base["host"] . $link;
		} else {
			// echo $base["path"] . “\n”;
			$b = preg_split("/\//", dirname($base["path"]));
			$t = preg_split("/\//", $link);
			foreach ($t as $v) {
				$l = $v === "." ? true : ($v === ".." ? array_pop($b) : array_push($b, $v));
			}
			$result = $base["scheme"] . "://" . $base["host"] . join("/", $b);
		}
		$linkArray[$result] = $result;
	}
	return $linkArray;
}

タグ

, 2, ajax, db, アウト, イコール, うち, エラー, オーバー, クローラー, コード, ここ, こと, コメント, これ, サーバ, サービス, サイボウズ, サンプル, ソース, それ, ため, データ, トイウ, メモリ, ラボ, リンク, , , , , 保存, 再帰, 処理, 出力, 判断, 取得, 可能, 基礎, 外部, 大事, 大体, 巡回, 新規, 検索, 機能, 殆ど, 永遠, 注意, 登録, 要素, 部分, 重要, 階層,

代体という本が書店に置いていた。

2016.09.17

Logging


代体とは何にか、簡単に言えば
脳をまるごとコピーし電脳世界にインストールする
ようなことをだと認識しているけど、、、。
一週間前に書店で代体っていう本を見かけ、
ちらっと手にとってパラっと見ただけなので
そんな話ではないのかもしれない。
ただ、前からこの方法は
単なる脳のコピーにしかならない、
ならないだけど、それには意識もあり自我もある
だけど、それはコピーでしかない。
こういう事を考えると生と死や自我というものを
考えてしまうですね。
とても不思議で興味深いことなんだとおもうです。
そういう時代にそろそろ足を突っ込むだろうなと・・・。
言語や映像などインターネットを介して
他者の脳に送り込む時代になっている時代です。
勉強しなくても脳に記憶を埋め込むことが可能になる日は
そう遠くないと自分は思っています。
そんな時代になったときに、人格や記憶というものは
一体なんだろうかと、脳をコピーできる時代になれば
脳のデータを消して他者に人格をインストール可能になるわけです。
そういう時代になると・・・。
あるとするならば死後の世界を今よりも
考えるよう時代になると自分は思っています。

タグ

インストール, インターネット, コピー, データ, 一体, 人格, 他者, 映像, 時代, 書店, , 死後, 自我, 興味深いこと, 言語, 記憶, 電脳世界,

WordPressテンプレートのSSL対応の勘所を教えます。

2016.07.25

Logging


全国的にかわかりませんが、花火大会やお祭りって7月の終わりから
8月の中頃までしかないですよね。高知県はそんな感じです。
(自分が学生の頃、8月の終わりごろに有れば良いのにと思ってました。)
今日のお題は「WordPressテンプレートのSSL対応の勘所を教えます。」です。
この頃、有料テンプレートに変えたのですが、そのままでは
デザインが崩れて全然使いものにならないので、自分で対応を行いました。
勘所はこれだけ、URLの出力する所を抑えるべしです。
なので、例えば下記のような記述が書かれている所などを
書き換えを行います。
※メソッドにはパターン2つあって、echoなどで既に出力されているメソッドと
文字列を返却してくれるメソッドです。それにより置き換え方法が変わります。

<?php
//パターン? get_sidebar();
        ob_start();
        get_sidebar();
        $get_sidebar = ob_get_clean();
        $get_sidebar = str_replace('http://', '//',$get_sidebar);
        echo($get_sidebar);
//パターン?,home_url()
        $str = "<a href="'. str_replace('http://', '//',home_url()) .'/">";
        echo str_replace('http://', '//',home_url());
?>

上記のようにすることで、SSLで対応は行えます。
SSL未対応のワードプレスをSSL対応にする場合は
まずはじめに、いままでの自サイトURL、全てのデータを
SSL化しないと駄目なので、MYSQLで文字の置換を
行なってください。もしくは、データを一度、エクスポートして
テキストエディタで置換し再度、インポートして
あげる事でも対応可能です。エクスポートする際は
UPDATE形式でエクスポートすることをお忘れなく。
後は、テンプレート側にSSL対応するだけで
ほぼ見栄え良く見えるはずです。
管理画面へログイン出来なくなると言った事象が
起こる場合は、若干、WordPressの設定を
修正しないといけなくなります。

タグ

$get_sidebar, a href, AM, echo str_replace, home_url, PHP 7+MySQL, SSL対応, UPDATE形式, WordPressテンプレート, データ, テキストエディタ, テンプレート側, パターン, メソッド, ワードプレス, 使いもの, 勘所, 書き換え, 有料テンプレート, 置換,

NHKの不寛容社会という番組をみて。

2016.06.12

Logging


不寛容社会という番組を見て
このまま進んでいくと少数の意見が排他されると言う
危うさを感じるものの、植え付けは良くないという気もした。
NHKが言いたかったことは何となく分かる気がするけど。
あの番組は議論というよりは、片方に
偏った意見が多かった番組作りになってた気がする。
自分としてはネットに左右されるという今のメディア側の
問題もかなりあるのではないだろうか?
メディアに限らず政治も同じで
世論に、かなり動かされているのは大きな問題だと
感じる。それぐらいネットが脅威だと感じているだろうけど。
ネットにいちいち反応して対応していては
駄目なんだろうと感じた。ネットで批判している人は
基本的に何かに不満を持っていて、それを満たすために
ネットで何だか分からない正義の元で
不満をぶつけているだけであって
その正義がとおっても気持ちは消化されることはない。
リアルに不満がある限りは変わらない気がしました。
http://www.nhk.or.jp/ourfuture/vol5/data/
[データ]
上記のリンクのデータにもあるように
いまの日本は多種多様な意見を受け付けない社会になりつつあるのは、
問題だと感じる。
こういうのってある意味、洗脳されやすい社会なのかもしれない。
アメリカでトランプが支持されてアレは変だと言っているけれど
いまの日本も他の国から言えば結構重症のところまで
きているのかもしれないと感じました。
結構、人って自分で考えようとしないですよね。
もうひとつ言うともっと議論が白熱すれば良かったのになと
番組を見て感じました。
http://www.nhk.or.jp/ourfuture/vol5/

タグ

かなり, それぐらいネット, データ, トランプ, メディア, メディア側, もうひとつ, 不寛容社会, 世論, 問題, 少数, 意見, 排他, 植え付け, 正義, 片方, 番組, 脅威, 議論, 重症,

CSVのデータ数万行とかをVBAでデータを加工するよりも

2016.05.30

Logging


CSVのデータ数万行とかをVBAでデータを加工するよりもPowerShellから加工するべし、、
まず、いま勤めてる会社、WEB会社なんですが
WEBシステムに使うデータの加工をする機会が結構あったりします。
時には数万行とかのデータを取り込んで
加工することがあるですね。
今まで数万行のデータは分割して
処理をしていたのですが、PowerShellで取り込んで処理する
方法があるみたいなので、これからはソチラで
加工しようかなとか思っています。
ちなみにExcelやPHPだとMバイトのデータを
扱うと処理が落ちる場合が結構あります。
とくにPHPだとファイルをアップロードする場合や
扱えるメモリの設定により処理落ちする事は
多々あります。
なので、PHP側でどうしても
処理を行いたい場合は事前にファイルを分割するか、
処理する時点でshellなどを使いコマンドラインで
ファイルを分割するかなどの方法を
取らないといけないのです。
ファイルをアップロードする時点で
処理を行うか前もって処理を行なったデータを
SQLで読み込むかなど、いろいろな方法があります。
 

タグ

CSV, Excel, Mバイト, php, powershell, SQL, VBA, WEBシステム, コマンドライン, ソチラ, データ, データ数万行, ファイル, メモリ, 事前, 処理, 処理落ちする事, 加工, 方法, 時点,

phpでXMLファイルのデータを取得し、配列に変換する方法

2016.03.06

Logging

$hoge = simplexml_load_file($xml);
$res = get_object_vars($hoge);

phpでXMLファイルのデータを取得し、配列に変換する方法は
上記の方法でOKです。
foreachで流し込むよりこちらの方が
断然楽ですね。この方法を知らない時は
わざわざforeachを使って配列に流し込んでいました。
こんな便利な関数があるなんて知らなかった。
PHPって結構べんりな関数が用意されているなと
思います。ちなみにこの頃、覚えたプログラム用語は
トレイトです。

トレイトは、PHP のような単一継承言語でコードを再利用するための仕組みのひとつです。 トレイトは、単一継承の制約を減らすために作られたもので、 いくつかのメソッド群を異なるクラス階層にある独立したクラスで再利用できるようにします。

PHPリファレンス引用
いろいろと知らないことだらけです。
奥が深い、すべての関数を覚えるのは
至難の業ですけど、こんな関数が用意されているなど
と覚えていたら良いかもしれませんね。

タグ

AM, B00DIM63US, hoge, PHPリファレンス引用, simplexml_load_file, XMLファイル, クラス階層, データ, トレイト, プログラム用語, べんりな関数, メソッド群, わざわざforeach, 単一継承, 単一継承言語, 方法, 独習PHP, 配列, 関数,

グーグルさんが機械学習ライブラリ「TensorFlow」をオープンソースで公開した。

2015.11.11

Logging


グーグルさんが機械学習ライブラリ「TensorFlow」をオープンソースで公開した。
(ニューラルネットワークとかいうものを使って学習するそうです!!)
Apache2の環境で動作するそうだ。
その前に機械学習って何だろう?
ググッてみてもあまり情報が出てこない・・・。
データを投げて、統計生成や統計から予測、パターン抽出などを
してくれるのが、機械学習だそうだ。
TensorFlowはPythonで動かすそうだ。
公式サイトを見ていてわかったこと、
Apache2の環境で言語はPythonがないと
動作しない、画像認識:=一致(猫の画像から猫らしき
画像を見つけたり出来る)、また、文字認識などが出来る・・・うん?
数字のサンプル提供・・・・。
文字認識が出来る新たなスパム対策が必要になるじゃないか・・・・
オープンソースでこんなの出すなよ・・・・。
悪用しようとすれば出来るじゃないか・・・・。
但し数字だけ提供しているので文字は今のところ提供していない
との事です。見ていて思ったのですが、データはやはり提供してくれない
みたいなので、企業向けだなと感じました。
膨大なデータがないと機械学習は不可能に近いので
個人がどうこうするには、もう少し時間が必要ポッいです。
WEBクローラーなどで情報を収集して
機械学習させてゴニョゴニョ…(ノ゚д゚(; ̄Д ̄)することは
可能(´∀`*)ポッいですが、どちらにせよ。
機械学習のことが分からないと素人には無理(´∀`*)ポッい。
ちなみにグーグルのデータを活用できる機械学習サービスとして
prediction APIがあります。
https://cloud.google.com/prediction/?hl=ja
関連リンク
http://googledevjp.blogspot.jp/2015/11/tensorflow-google.html

TensorFlow: Open source machine learning

タグ

, Apache2, ITエンジニア, prediction API, Python, tensorflow, WEBクローラー, グーグル, ググッ, ゴニョゴニョ, データ, ニューラルネットワーク, パターン抽出, 但し数字, 文字認識, 機械学習サービス, 機械学習ライブラリ, 機械学習理論入門, 統計生成,

イケダハヤトさんが収益表を掲載しているので見てみた。

2015.10.16

Logging

  • 1万PV:〜1,000円
  • 5万PV:3,000〜10,000円
  • 10万PV:10,000〜50,000円
  • 20万PV:50,000〜10,000円
  • 30万PV:100,000〜150,000円
  • 40万PV:150,000〜200,000円
  • 50万PV:200,000〜250,000円
  • 100万PV:500,000〜750,000円
  • 150万PV:750,000〜1,250,000円
  • 200万PV:1,000,000〜1,500,000円
  • 250万PV:1,250,000〜1,750,000円

イケダハヤトさんが収益表を掲載しているので見てみた。
http://www.ikedahayato.com/20151016/41648386.html
見てみた結果、まぁ当たっているのかな?
ちなみに6月に某企業から広告収益を送金されて
その後、4ヶ月の収益は289円です。

1万PVで?1000円っていう話ですが低いのか高いのか?
ちなみにPVっていうのはページの表示回数です。
ちょっと検証してみた、自分は6月15日から10月15日までの
PV数は13,701PVです。
「オォォーーー!!該当したorz」
ので、この表は当たってるなと(゚∀゚)。
この表で目指す所は30万PVですね!
目指せ30万PVってどうやって30万PVも稼げってんだい!!
試行錯誤しないと無理、そしてデータを解析する力とかも
必要になってくると思います。ただ、試行錯誤だけでは
そんなPV数は芸能人じゃないかぎり弾き出せないような気が・・・。
何か、裏ワザ的な方法があるではないかと
思い、イケダハヤト著者の武器として書く技術を購入してみた。
本の感想は後日書くことにします。
自分が思うには書く技術も必要だと思いますが
炎上要素がブログの成長に何か関わりがあると思っています。

タグ

1万PV, 30万PV, B00DONBQHQ, PV数, イケダハヤト, イケダハヤト著者, オォォー, かぎり, データ, 中経出版, 収益表, 広告収益, 後日書くこと, 技術, 某企業, 武器, 炎上要素, 稼げってんだい, 芸能人, 裏ワザ的, 試行錯誤, 関わり,

8月度のアクセス数公表です。

2015.09.01

Logging


8月度のアクセス数公表です。今月からアクセス数解析を切り替えたため過去のデータはExcel表から公表します。この頃の傾向は日によって変動があるということぐらいで特にアクセス数にコレといった特徴はありません。自分としては個人サイトとしてのアクセス数としてはこのぐらいが良いのかなと思っています。ちなみに前にも言ったとおり1000桁超えしたときが自分の最高です。いまの感じのブログ記事ではおそらく何時まで経ってもアクセス数に変動が起こることはないように思えます。9月度の目標は安定したアクセス数にしたいなという事ぐらいです。

タグ

, 8月度, 9月度, Excel表, アクセス数, アクセス数解析, コレ, データ, とおり1000桁, ブログ記事, 個人サイト, 傾向, 変動, 感じ, , 特徴, 目標, 過去,

このサイトも3年目突入です。

2015.08.29

Logging


このサイトも3年目突入です、一年前ぐらい前のデータ(記事)しか残っていないのですが早いもので3年目になります。以前の会社に4年、派遣として在籍していたわけです、その頃にFacebookからこのサイトがバレてしまって色々なチャチャなどがありました。いろいろあったけど消さなかったわけは消す理由が思い当たらないから、。ということで、今後とも宜しくお願いします{長々書いていましたが省略しました。}。

タグ

3年目, 4年, Facebook, サイト, チャチャ, データ, バレ, 一年前, 会社, 早いもの, 派遣, 理由, 記事,

WinSCPというソフトが有るのだけど。

2015.07.16

Logging


WinSCPというソフトが有るのだけど自分はこのソフト、FTPのソフトだと思い込んでいたけど・・。SCPという名前の通りSCP(転送プロトコル)機能がついてたりする。面倒くさい事をさらっとやってくれるフリーソフトなわけです。そうとは知らず今までインストールすることが無かったんですけど、この度、インストールしました。ちなみに何が良いかというとFTPサービスをサーバ環境へインストールしなくてもファイルのアップロードが可能だということです。FTPがインストールされていない環境だととても重宝しそうな気がします。
ダウンロードはこちらから、WinSCP
メモがてらにもう一つ、大量のsqlデータを一括でインポートしなくてはならなくなり、昨日、調べていたらこのようなコマンドで解決することがわかりました。まず、Linuxサーバでかつポート22番が開いている事が前提です。windowsですとTera Termでサーバにログインし下記のコマンドを入力します。

mysql -u ユーザー名 -D データベース名 -p
//エンター後、Passwordの入力を行ってください。
次にMYSQLに切り替わったら、下記のコマンド入力してインポートを行います。この時の注意点ですがエラーなどが出る場合はエクスポートしたsqlファイルの最終行あたりに記入されているデータベース名やユーザー名が移行する側の名前になっているかが大事になります。なっていない場合、修正をかけ再処理を行うとインポートが行えるはずです。
尚、サーバ上に事前にsqlファイルをアップロードして置いてから処理を行ってください。
USE データベース名(インポートしたい)
SOURCE 階層を含むファイル名(/xxxx/xxxx.sql)

            

タグ

22, FTP, Linux, My, SCP, SQL, Tera, Term, Windows, WinSCP, アップロード, インストール, インポート, こちら, こと, コマンド, サーバ, サービス, ソフト, ダウンロード, データ, ファイル, フリー, プロトコル, ポート, メモ, もう一つ, ログイン, 一括, 下記, , , 入力, 前提, 可能, 名前, 大量, , 昨日, 機能, , 環境, 自分, 解決, 転送, 通り, 重宝,

jQueryでローディングって検索すると。

2015.05.20

Logging


 
jQueryでローディングって検索すると何やらいろいろヒットしました。なるほど、そういう事なのか、以外にも短いコードで書けるだなということが分かって目から鱗が落ちました。ロードされるまでGif動画を表示させてロード後切り替えているだけなんだ。jQueryってすごいですね。ちなみにjQuery.event.add(window,”load”,function(){…} こう書けばデータが読み込まれた後に処理が実行されます。ちなみにこの場合、HTMLや画像などのデータが読み込まれるまでGif画像を表示させる方法ですが、非同期通信を行っている間、ローディングのGif画像を表示させて普通に切り替える事も可能なんだということで、BBSもどきにその機能をつけてみました。コメントが表示されるまでローディング画像を表示させています。
https://zip358.com/tool/BBS

タグ

AM, BBSもどき, function, Gif動画, Gif画像, html, jQuery.event.add, load, window, コード, コメント, データ, ローディング, ローディング画像, ロード後, 以外, 処理, 方法, 機能, 短いコード, 非同期通信, ,

CURLでページを抽出するのは簡単なのだけど・・・POSTして

2015.05.13

Logging


curlでページを抽出するのは簡単なのだけど、いま自分がやりたいことはSSLのサイトにデータをPOSTしてその結果を加工して表示させたいわけなのですが・・・。どうもPOSTする際にデータがうまく渡せてなくてエラー結果のページが表示されるのです。未だ問題が解決せず・・・・。うまく行かない・・・時間だけが流れてしまうので今日のトコロはやらない方法ですが、うまく行けばそのサイトを公表します。結構便利なサイトになるかと思っているのですが当分、無理な感じがします。

タグ

, curl, POST, POSTする際, SSH, SSL, エラー結果, サイト, データ, トコロ, ページ, 当分, 方法, 時間, 未だ問題,

accessを購入します{本日、購入}。

2014.08.16

Logging

Access2013を購入します、旧のアクセスは持っているのだけどセキュリティ上使用できなくなったので購入します。ちなみにアクセスは、いまいち使い勝手良くなかったので今まで牽制していましたが、この頃、使用してみて基本的にエクセルVBAとそんなに変わらないなという事がわかりました。エクセルVBAにDB機能とシステム要素が付与したものと考えると良い感じですね。ただ、Formの呼び出しなどが、もっとソフト開発(VisualStudio)よりな呼び出しになっている感じです{最初はわからなったです}。よくよく考えるとVisualStudioなんてものを使用せずとも結構これだけで、ひと通りの事が出来そうです{前にも同じこと言っていた気がします}。
購入して何を作るかっていう所ですけどサンプルコードをひとつ作って見ようかなと、あとは、ちょっとしたデータ入力のために簡易てきな入力システムみたいなものを作ってみようと思いますが、こちらは公開しません。

タグ

2013, access, db, Form, VBA, VisualStudio, アクセス, あと, いまいち, エクセル, コード, コチラ, こと, これだけ, サンプル, システム, セキュリティ, ソフト, ため, データ, ひとつ, ひと通り, もの, , 付与, , 使い勝手, 使用, 入力, 公開, , 感じ, , , 最初, 本日, 機能, , 牽制, 簡易, 要素, 購入, 開発, ,